Categories
Herramientas Limpieza de datos Modelización Visualización

Los temas de la crisis: topic modeling sobre la COVID-19

En este post, presentaremos otra manera de explorar nuestro dataset de tweets sobre el Covid-19 con el objetivo de detectar temas o tópicos emergentes de interés para nuestro estudio de las narrativas sociales acerca de la pandemia. Para ello, realizamos un procesamiento de aprendizaje automático no supervisado con la ayuda de diferentes librerías para Python.

En este caso, trabajamos con material en español pero el mismo procesamiento puede aplicarse al corpus en inglés, con algunas diferencias en los parámetros de lengua.

“Preparar datos es 80% del trabajo de data science”

Ya es sabido (ver fuente) que cuando se trabaja con grandes corpus, la mayor parte del tiempo se dedica a limpiar y organizar los datos. ¡Y nuestro caso no es la excepción! Esta tarea es muy importante ya que no sólo reduce el volumen de los datos facilitando su procesamiento automático, sino que también tiene una enorme influencia en la calidad de los resultados.

En primer lugar, filtramos las stopwords y los emojis. Usamos listas genéricas disponibles en librerías standard (NLTK, emoji) que actualizamos continuamente con ítems específicos de nuestro corpus en base a los resultados obtenidos (‘retwitt’, ‘covid19’, etc.).

Otro paso importante del preprocesamiento es la detección de categorías (Part of Speech) y la lematización. Usamos Stanza (de Stanford NLP) porque da mejores resultados para tratar la morfología del español. En inglés, cuya morfología flexiva es más reducida, es posible usar Spacy con buenos resultados y un tiempo de procesamiento mucho menor.

Una vez que terminamos el preprocesamiento, podemos detectar automáticamente los tópicos predominantes en nuestro corpus con aprendizaje automático gracias a Gensim, una librería de Python para topic modelling. Realizamos un aprendizaje no surpervisado porque no tenemos manera de saber de antemano cuáles son los tópicos ni cuántos son. Entrenamos modelos con el algoritmo LDA para 3 a 30 tópicos.

Coherencia de los modelos evaluada con c_npmi, c_uci y u_mass para todos los tweets en español del 25 de abril

Los gráficos de coherencia de los tópicos generados para todos los tweets en español del 25 de abril nos muestran que la conversación en nuestro corpus de coronavirus se encuentra muy concentrada, ya que la coherencia disminuye marcadamente a medida que el número de tópicos aumenta. Si se diera el caso contrario (mayor índice de coherencia al aumentar el número de tópicos) sería importante encontrar un compromiso entre los resultados de los scores de coherencia y un número de tópicos al alcance de la interpretación humana, ya que resulta difícil imaginar un análisis humano que maneje más de una docena de tópicos para el mismo corpus.

La visualización de los resultados en gráficos es de gran ayuda para facilitar el análisis. Una forma de graficar los tópicos es usando pyLDAvis, una librería para visualizar de manera interactiva las palabras que conforman los tópicos configurados por los modelos.

En el gráfico precedente (click aquí para abrir el gráfico en una pestaña nueva) en el que se grafican 7 tópicos para el 25 de abril para los tweets en español en todos los países/regiones de nuestra muestra (Argentina, Colombia, Ecuador, España, Florida, México, Perú), podemos observar lo que señalamos más arriba: es difícil para un humano encontrar el criterio por el cual fueron agrupadas ciertas palabras como parte del mismo tópico. A medida que aumenta el número de tópicos, éstos se vuelven menos interpretables aunque tengan alto score de coherencia.

Probablemente, esto se deba a la amplitud de nuestra muestra: más allá del covid19, los usuarios de Twitter de cada país deben abordar diferentes temáticas que poco tienen que ver. Comparemos los resultados para Argentina y Colombia, por ejemplo.

Coherencia de los modelos evaluada con c_npmi, c_uci y u_mass para Argentina, mejores resultados para 3 y 5 tópicos
Coherencia de los modelos evaluada con c_npmi, c_uci y u_mass para Colombia, mejores resultados para 3 y 7 tópicos

Otro tipo de visualización útil para el topic modelling es el gráfico de Circle Pack, donde los colores representan los diferentes tópicos y el tamaño de las esferas la frecuencia de las palabras. Vamos a comparar el Circle Pack del 25 de abril de Argentina y Colombia para 3 tópicos porque ambos recibieron un score alto de coherencia para ese número.

Tópicos para tweets sobre el covid19 en Colombia el 25 de abril de 2020

En el gráfico de Colombia, vemos un tópico (color rojo teja) que relaciona la pandemia con la política, que incluye palabras como “gobierno”, “presidente”, “país”; otro tópico (color azul) que aborda cuestiones más vinculadas a lo sanitario, que incluye “vacuna”, “virus”, “prueba” y otro tópico (color verde) que parece más vinculado a las estadísticas diarias de números de casos, muertos y contagiados.

Tópicos para tweets sobre el covid19 en Argentina el 25 de abril de 2020

Para interpretar el Circle Pack de Argentina, es imprescindible conocer el tema de actualidad de ese día particular (ver noticia): un bebé de la ciudad de Santa Fé que fue nombrado Ciro Covid el 24 de abril. La pregunta “¿Quién va a ponerle de nombre a su bebé Ciro Covid?” que predominó en Twitter Argentina al día siguiente, no sólo está representada claramente en el tópico verde, sino que invadió también los tweets con partes diarios de números de nuevos casos y fallecidos (tópico color rojo teja). En una medida mucho menor, otro tema abordado ese día en ese país, fue la polémica sobre otorgar libertad condicional a presos como medida de prevención, representado por el color azul.

Una vez más, confirmamos que el aporte de una mirada humanista interesada en el conocimiento de los datos y su contextualización es de gran ayuda para asignar significados a los resultados del procesamiento automático.

Para más detalles sobre el procesamiento realizado para obtener los tópicos, descargue la notebook disponible en el repositorio de GitHub del proyecto.

Categories
Análisis de contenido Teorización Visualización

¿Qué pueden decirnos las publicaciones académicas sobre el COVID-19 y la Educación?

La aparición del coronavirus ha puesto en nuestro lenguaje cotidiano nuevos términos, como pandemia o infodemia. Este último, de acuerdo a Wikipedia, puede ser definido como: 

“El término infodemia se emplea para referirse a la sobreabundancia de información (ya sea rigurosa o falsa) sobre un tema concreto, como por ejemplo en el caso del coronavirus​. El término se deriva de la unión entre la palabra información y la palabra epidemia. Se relaciona con conceptos similares como fake news o infoxicación, en la medida que la cantidad y exposición de éstos se intensifican.”

Una buena forma de sobrevivir a la infodemia es analizar datos. AVOBMAT (Análisis y visualización de metadatos y textos bibliográficos / Analysis and Visualization of Bibliographic Metadata and Texts – https://avobmat.hu/) es una herramienta de investigación de minería de datos que se diseñó principalmente para la investigación en humanidades digitales. Es un poderoso kit de herramientas digitales para analizar y visualizar metadatos y textos bibliográficos. AVOBMAT agregó un conjunto de datos sobre COVID-19 a su nueva herramienta de investigación de minería de textos. Es un recurso de más de 138,000 artículos académicos (lamentablemente, solo en inglés), que incluye más de 69,000 artículos completos, sobre COVID-19, SARS-CoV-2 y coronavirus relacionados. Pensamos que antes de profundizar en el vasto océano de Twitter para ver qué está sucediendo en relación con la pandemia y la educación (educación superior/universitaria, enseñanza remota/a distancia), debemos construir un marco de referencia que pueda apoyar e informar nuestra hipótesis. Utilizamos AVOBMAT para explorar lo que las publicaciones científicas publicaron entre 2019 y  2020 sobre estos temas.

Primero, hicimos una búsqueda general con Lucene: establecimos un período (2019 y 2020) y elegimos algunas palabras generales como “programa de estudios”, “educación” y “coronavirus” (no solo COVID-19, sino todas las enfermedades por coronavirus). La búsqueda nos mostró 298 artículos (por supuesto, todos en inglés): http://dighum.bibl.u-szeged.hu/avobmat-covid/home

Luego, pensamos qué podría decirnos esta búsqueda general en un enfoque más cercano y detallado, aunque aún distante. Elegimos la opción de visualización de WordCloud y este fue el resultado:

Nube de palabras en AVOBMAT

Algo que casi esperábamos, pero que la nube confirmó es la referencia a ciudades y países (Wuhan, Hubei, China, Vellingiri) y a meses específicos (diciembre, febrero, marzo). Teniendo en cuenta que Estados Unidos entró en una situación más crítica en abril, descubrimos la presencia del Oriente. Sin embargo, esto también abre una pregunta sobre otros países como Italia o España e incluso el Reino Unido, donde se estaban pasando por momentos críticos a principios de 2020. Podemos explicar estos resultados argumentando la lenta respuesta de la producción y publicación académica al abordar este nuevo contexto, pero quizás también con un interés no tan alto en los temas que estábamos buscando (programa de estudios, educación, coronavirus).

Sin embargo, la explicación en sí está en el coronavirus, como el SARS-CoV (2002-2003) y el MERS-CoV (2012-hasta el presente). Todos los otros coronavirus atacaron principalmente a países del Este y no del Oeste. Esto explica la presencia en la nube de algunas de las ciudades que mencionamos anteriormente. En realidad, no fue sino hasta marzo de 2020 que algunas revistas sobre educación superior estadounidenses, como Inside Higher Ed y The Chronicle of Higher Ed, comenzaron a publicar artículos que hablaban sobre Covid-19 y educación superior en los Estados Unidos. Publicaciones anteriores del 2020 o incluso en enero y febrero de 2020 hablaban sobre nuevos desafíos en la educación universitaria en China, Corea del Sur o Europa (Italia, España, Reino Unido) (Véase, por ejemplo, la búsqueda que hicimos para la revista Inside Higher Ed)

En definitiva, es realmente interesante que la educación esté en esta nube relacionada con la medicina (atención médica, farmacéuticos, emergencias, cuarentena, transmisión) y, obviamente, con cara, máscara … y Google. Por supuesto, no es solo el cuerpo físico presente aquí sino también términos interesantes como psiquiatra, mental, etc.

Uso y contexto del término educación

Pero finalmente, si hacemos una lectura muy cercana y analizamos los metadatos que obtuvimos en la búsqueda general, podemos encontrar en los artículos que, la mayoría de las veces, el término educación está relacionado con las variables que los investigadores usan para estudiar la enfermedad. Por ejemplo, este es un pasaje en el artículo “A County-level Dataset for Informing the United States’ Response to COVID-19” (“Un conjunto de datos a nivel de condado para informar la respuesta de los Estados Unidos a COVID-19”) por Benjamin D. Killeen et al (2020), en el que los autores afirman que han utilizado “300 variables que resumen las estimaciones de población, demografía, etnia, vivienda, educación, empleo e ingresos, clima, puntajes de tránsito y métricas relacionadas con el sistema de salud ” (“300 variables that summarize population estimates, demographics, ethnicity, housing, education, employment and income, climate, transit scores, and healthcare system-related metrics.” – https://arxiv.org/pdf/2004.00756.pdf)

En otros casos, el término educación está muy relacionado con un Ministerio (en el caso de Irán, el trabajo del Ministerio de Salud y Educación Médica es muy citado (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7085938/)

Visualización de revistas académicas que contienen los términos de búsqueda en sus artículos

Por lo tanto, no es fácil entender lo que nos dice esta nube.

Si hacemos una consulta similar con Lucene pero reemplazamos coronavirus con Covid-19, más educación y programa de estudios, encontramos 458 artículos que nos muestran estas palabras:

Nube de palabras con AVOBMAT

Por supuesto, las ciudades (Hubei, Wuhan, China) y los meses (enero, febrero, marzo) todavía están allí. Vemos términos relacionados con enfermedades mentales (psiquiatra, mental), pero la cuarentena ahora comparte semántica con un sinónimo que se ha utilizado ampliamente en los países anglófonos: el encierro (lockdown). Y también tenemos palabras familiares para Google (por ejemplo, Internet) y las nuevas incorporaciones, como Whatsapp, y otros términos relacionados con nuestra nueva vida, como en línea, a distancia y telemedicina.

Sin embargo, ¿qué pasa con la educación, entendida como la enseñanza y el aprendizaje? Detallamos un poco más nuestra búsqueda usando términos como enseñanza, universidades, aprendizaje, estudiantes y COVID-19. Como resultado, obtuvimos 199 artículos en los que estas fueron las palabras más utilizadas:

Nube de palabras con AVOBMAT

El encuentro versus el encierro, moodle, moocs, distancia, los gimnasios nos dieron una imagen muy realista del escenario educativo en estos días. Incluso la visualización de metadatos nos dice que estos temas se abordan desde las Ciencias Médicas, y nos da una imagen detallada de nuestra situación global con el  COVID-19.

Visualización de revistas académicas que contienen los términos de búsqueda en sus artículos

Como sospechábamos, la mayoría de los artículos publicados sobre COVID-19 y los diferentes enfoques sobre temas relacionados con la educación, la educación superior y universitaria, etc., están relacionados con estudios en las ciencias médicas. Por un lado, como se esperaba, esta es una disciplina dominante en un contexto de pandemia, pero también muestra cómo las Ciencias Médicas han mejorado el lento tiempo de la escritura académica. Por supuesto, nos damos cuenta de todas las publicaciones sobre este tema, ya que muchos servicios de recolección de otras latitudes no están incluidos como parte del servicio AVOBMAT. Sin embargo, nos da una idea general para avanzar en nuestro próximo post a un enfoque sobre lo que los tweets dicen sobre estos temas. ¡En breve, más análisis cercano y distante!

Marisol Fila y Gimena del Rio Riande

Categories
Análisis de contenido Visualización

Analizar un corpus de Twitter con Voyant (I)

La primera etapa del trabajo con datos es conocer con qué corpus se va a trabajar. Nuestro proyecto, por ejemplo, se interesa especialmente por el contexto lingüístico y humanístico sobre el discurso que se generó en Twitter debido a la pandemia de Covid-19. Algunas preguntas que nos hicimos, desde el inicio, incluyen la proporción de información diaria acerca del corpus, las palabras más utilizadas, la ocurrencia de términos y la comparación cronológica, geográfica y lingüística.

El enorme volumen de datos hace que la lectura humana sea imposible. Afortunadamente, el aprendizaje automático contribuye a que los humanistas comprendan aspectos fundamentales del corpus y, que puedan desarrollar preguntas más críticas para la investigación. Sin embargo, emplear métodos digitales en las Humanidades no equivale a reemplazar con software la lectura humana. La informática hace factible operaciones que de otro modo requerirían mucho tiempo o serían inimaginables, mostrando relaciones y patrones de un gran volumen de datos. Por lo cual, los humanistas digitales aplican el análisis crítico y su experticia en las Humanidades para procurar que estos patrones y sus implicaciones tengan sentido. En otras palabras, a través de las computadoras podemos trabajar en un método de reconocimiento de información esencial sobre grandes volúmenes de texto que la lectura manual no puede alcanzar o detectar por sí sola. Los resultados que se generan son solo el comienzo de cada proyecto de HD y no el resultado final. El análisis humano y el conocimiento de Humanidades siguen siendo el núcleo de la labor en HD.

Voyant Tools es una de las herramientas que utilizamos para obtener una vista general de nuestro corpus. Se trata de un software en línea, útil para el análisis de grandes cantidades de textos, que cuenta con funciones como la comparación de corpus, cuantificación de frecuencia de palabras, análisis de ocurrencias, interpretación de términos clave, etc. No requiere instalación y es compatible con la mayoría de los sistemas operativos. A continuación, se presenta un ejemplo, o más bien un ensayo del trabajo con Voyant Tools para llevar a cabo las primeras exploraciones textuales con nuestro corpus, que se actualiza diariamente y se encuentra disponible en https://github.com/dh-miami/narratives_covid19/tree/master/twitter-corpus (consulta nuestro anterior post en ¿Cómo hidratar un conjunto de Tweets?).

Para ello, seleccionamos el corpus de tweets en inglés sobre Florida del 28 de abril de 2020, el día en que el total de casos en los EE. UU. alcanzó el millón. Voyant Tools lee archivos de texto plano (txt.) ya sea pegándolo en el cuadro de diálogo o subiendo un archivo. Los resultados que obtuvimos después de subir el corpus hidratado son los siguientes:

Captura de pantalla que muestra todos los resultados obtenidos

A partir de la lectura del resumen, sabemos que el 28 de abril, nuestro corpus consta de 21.878 palabras, de las cuales 4.955 son únicas. La densidad del vocabulario se calcula dividiendo el número de palabras únicas por el número de palabras totales. Cuanto más cerca de 1, más denso y diverso es el corpus. Con un índice de densidad de 0,226, podemos saber que el corpus no es tan diverso a esa fecha. Una vez que ejecutemos las evaluaciones de toda la muestra de nuestros datos, comprenderemos si esta densidad es una norma en todo el corpus o un hallazgo significativo.

Resumen del corpus en inglés del 28 de abril en Florida

Asimismo, podemos ver que las palabras, como user y url, que figuran en todos los textos de Twitter no poseen significado alguno, y solo distraen los resultados de las más frecuentes, así como los cirrus. Podemos remover estos términos haciendo clic en definir opciones para esta herramienta en la esquina superior derecha del cuadro de cirrus, editando la lista de palabras excluidas. Voyant dispone de una lista predeterminada de palabras excluidas (stopwords): esta función detecta y elimina automáticamente dichos términos. Para llevar un registro de sus resultados, es mejor mantener una lista propia de las palabras suprimidas.

El siguiente es el nuevo cirrus después de eliminar user y url.

Visualización de Cirrus con los 45 términos más frecuentes

Las 5 palabras más frecuentes en el corpus fueron “covid19” (844 ocurrencias), “coronavirus” (77), “pandemic” (77), “people” (57) y “help” (51 ocurrencias). Como nuestra colección completa de tweets trata sobre la pandemia Covid-19, es probable que las palabras “covid19”, “coronavirus” y “pandemic” aparezcan en la mayoría de los corpus diarios. Para ver más de cerca el aspecto del 28 de abril, eliminamos estos términos y generamos un nuevo gráfico de cirrus.

Las 45 palabras más frecuentes excluyendo “covid19”, “coronavirus” y “pandemic”

Finalmente, estas son las 5 palabras más frecuentes: “people” (57 registros), “help” (51), “new” (45), “just”(44 ) y “testing” (44 registros). Basándonos en estas palabras, podemos especular que los nuevos casos y los temas relacionados con los testeos fueron una parte significativa en las conversaciones del 28 de abril. En nuestros próximos posteos, seguiremos registrando las palabras más frecuentes de cada día y analizando otras funcionalidades de Voyant Tools.

Categories
Análisis de contenido Curricula Visualización

COVID-19 y educación superior. Una mirada desde las HD

El 2020 comenzó con la noticia sobre un nuevo virus. En unas semanas se convirtió en pandemia global y desde entonces todos hemos estado preocupado por este tema. La Educación Superior no quedó al margen y en los últimos meses, hemos visto cómo las discusiones sobre la pandemia han llegado incluso a los programas de estudios.

Desde las Humanidades hasta las Ciencias, todas las disciplinas están discutiendo sobre causas, consecuencias locales y globales, historia, política… todo con relación a la COVID-19. En línea con el espíritu de nuestro proyecto, creemos que las Humanidades Digitales pueden ayudarnos a comprender qué, cómo y dónde se discuten estos temas en la Educación Superior.

En los próximos meses, iremos publicando análisis y visualizaciones sobre la forma en la que los programas de estudio han ido reaccionando ante la pandemia global y bajo qué perspectivas. Dado que nos basamos en fuentes que se han puesto a disposición del público, nuestro corpus inicial estará compuesto por programas de estudio de los EE. UU., pero nuestro objetivo es abrirlo a América Latina a medida que surja nuevo material. ¡Estén atentos!