Ya es la segunda vez que un profesor universitario me solicita un estudio / charla que incluya un programa / software para el análisis cualitativo asistido por computador (Computer Assisted/Aided Qualitative Data Analysis Software – CAQDAS), como, por ejemplo, el Atlas.ti o Nvivo.
Y en ambos casos, he comentado que, si bien los conozco, yo no los utilizo, sino que, como creo le ocurre al resto de mis colegas, analizo «de cabeza», interpretando, revisando las transcripciones y realizando reuniones de análisis con el equipo implicado en el estudio.
Esto me llevó a preguntar en Linkedin si alguien que se dedicase a la investigación de mercados cualitativa utilizaba CAQDAS o si era más bien una herramienta para el ámbito académico.
La respuesta fue masiva. El post obtuvo más de 9.000 visitas y unos 75 comentarios de profesionales de todos los países. Se ve que no soy la única que se ha hecho esta pregunta 😉

¿Resultado? Excepto contados casos, mis sospechas se confirmaron. La mayoría de colegas de profesión (fuera del ámbito académico) tampoco las utilizaban. ¿Por qué?:
1) Glyn Griffihts apuntaba que el uso de estas técnicas asistidas por ordenador requiere dos etapas: transcripción y luego análisis. Y en el entorno comercial, nuestros clientes quieren respuestas rápidas y económicas.
En cambio, en metodologías académicas (más «científicas»), su técnica de análisis debe ser repetible de tal manera que, si una persona diferente sigue sus instrucciones, debe llegar a casi las mismas conclusiones, si se utiliza el mismo conjunto de datos. Es decir, debe ser objetivo y no dependiente del observador. Pero esto requiere un enfoque mucho más metodológico.
Como ejemplo decía: «Imaginad un estudio ecológico de un pantano. Un botánico entrenado podría haber pasado unos veinte minutos mirando a través del pantano y decirle qué áreas estaban húmedas vs. secas, qué áreas eran más ácidas, qué áreas estaban más sombreadas de la luz, etc. con sólo mirar las plantas, en función de sus años de experiencia. En vez de eso, el enfoque académico, más científico, pasaría tres días midiendo sistemáticamente todo de una manera repetible que cualquiera podía copiar. Trabajar a partir de transcripciones permite un enfoque repetible más objetivo, que incluso un analista inexperto podría ser enseñado, pero es costoso y consume mucho tiempo. Como expertos en investigación, los clientes nos pagan por nuestra experiencia y la capacidad de interpretar y analizar rápidamente.
Hay empresas que pretenden ser capaces de resolver «sentimiento positivo o negativo» de contenido automáticamente, pero en mi experiencia esto es altamente poco confiable. Optimización de motores de búsqueda significa que la mayoría del contenido incluya cientos de etiquetas, para casi cualquier cosa que cada empresa haga. Así, dentro de un artículo sobre, por ejemplo, un nuevo medicamento ePOC para GSK, el artículo también incluirá prácticamente todas las otras áreas de terapia en las que trabajan. Por lo que puede ser bastante difícil para una máquina averiguar de qué se trata realmente un artículo.
Y en términos de sentimientos, tiene que interpretar el significado. ¿Positivo o negativo para quién? Una nueva licencia para un medicamento COPD de GSK es bueno para ellos, pero malo para sus competidores, por lo que tiene que saber desde qué punto de vista se está expresando ese sentimiento.
Por el momento, no hay sustituto para una mente humana cuando se trata de interpretar el significado con precisión«.
2) Jorge Marrón Abascal apuntaba a que siempre se ha mantenido fiel a eso de la «artesanía intelectual», ya que: «me muevo en lo micro y en lo meso, lo macro ahora mismo no entra dentro de mi objeto de estudio y trabajo.
Y, además, me dedico a la investigación participativa, sociopraxis, IAP y/o socioanálisis por lo que hay cosas que la herramienta no es capaz de anticipar cuando hay creatividad colectiva de por medio.
Soy defensor de la artesanía frente a la tiranía del Gran Dato. Lo que pongo en práctica es lo que estas herramientas ofrecen: percepción y anticipación, discusión y propuesta».
3) María del Carmen Vargas matizaba que «si hablamos de algo descriptivo, es lógico que la máquina lo pueda hacer mejor. Pero la investigación como un todo trata de profundizar en lo que no se ve e incluso buscar datos/información que están fuera del campo realizado para complementar y sustentar hallazgos, planteando luego rutas claras de acción. Es la manera de darle valor a nuestro trabajo como investigadores y hasta ahora no conozco una máquina que trabaje fuera de lo que está programada para hacer«.
4) Coral Hernández Fernández, apuntaba que: «en el ámbito profesional, creo que su utilidad depende sobre todo de la dimensión del proyecto. Para un estudio de un par de grupos en el que tienes que dar resultados en tres días ¡ni modo! Un compañero tomando notas analíticas durante el grupo vale más que todo el software del mundo«
¿Y por qué lo utilizan tanto en el ámbito académico?, ¿cuáles son sus ventajas?:

1) Jorge Cruz Cárdenas explicaba que: «con softwares como Nvivo o Atlas.ti puedes codificar directamente en el vídeo.
Por ejemplo, señalas varios segmentos del vídeo y los codificas como «apatía ante el nuevo producto». Luego, al discutir los resultados con el cliente, recuperas automáticamente todos los segmentos de todos los vídeos bajo este código.
Por otro lado si crees que esta categoría es parte de una más grande, solo colapsa en la otra, porque los segmentos ya están identificados.
Adicionalmente, si el cliente o un colega tuyo no están de acuerdo con una etiqueta, es tan fácil como tipear la nueva y guardar.
Además, tiene muchas opciones para generar temas o estructuras conceptuales«.
2) Nicolás Sáiz Bravo nos compartía algunos entregables que pueden salir de plataformas como NVivo.
3) Jorge Andrade Rios nos comentaba que: «obviando que lo principal es el conocimiento del analista y su agudeza para analizar los datos, considero que el procesamiento del lenguaje natural desplazará , tarde o temprano a la gran mayoría de investigadores cualitativos.
Por ejemplo, en nuestro caso, en el último año es raro que nosotros no incluyamos redes de texto, semánticas, análisis tipo quanteda u otros, en todos los estudios cuali que hemos hecho.
Por ejemplo, en talleres o sesiones de grupo, con bases cercanas a 30 personas puedes generar RSN (Redes Semánticas Naturales) o hacer clusters de texto. La verdad, es difícil el manejo de todo esto para un cuali, no así el concepto. La irrupción de la tecnología ha sido muy violenta y se requiere mucho esfuerzo para emparejarse».
5) Coral Hernández Fernandez nos decía: «en proyectos grandes o complejos, en acompañamientos o en etnográficas en las que vas a repasar grabaciones o si han hecho tareas previas, entonces los sistemas de codificación mediante etiquetas suelen de lo más útiles.
Por ejemplo, para encontrar al momento materiales diversos que traten en mismo tópico (un punto de una grabación, un collage o una foto de una tarea, etc.).
Además, la posibilidad de categorizar y recategorizar, agregar o desagregar categorías, etc. facilita mucho los análisis, incluso cuando acabas en ideas muy lejos de las iniciales.
Y el software en la universidad lo tenemos gratis!»
¿Seguirán los softwares fuera del mundo profesional de la investigación cualitativa de mercados?:

Pues quizá lleguen antes de lo que nos pensamos.
Últimamente he asistido a varios eventos sobre innovación (dentro del Tech Spirit Barcelona) y he contactado con varias empresas que están desarrollando softwares con inteligencia artificial y machine learning para poder analizar la información más cualitativa (sin mucho éxito por el momento, parece ser).
Me pregunto si la AI será el salto definitivo que le hacía falta a los CAQDAS.