EL APAGÓN ANALÓGICO Y EL DESPERTAR
DEL PERIODISMO DIGITAL
Coordinador del número: Jorge Cruz
Editor de la serie: Marco López Paredes
© 2020 Pontificia Universidad Católica del Ecuador
© Jorge Cruz
Grupo de Investigación en Ciencias de la Comunicación - GicCom
Observatorio de la Comunicación - OdeCom.
Centro de Publicaciones PUCE
www.edipuce.edu.ec
Quito, Av. 12 de Octubre y Robles
Apartado n.º 17-01-2184
Telf.: (5932) 2991 700
e-mail: publicaciones@puce.edu.ec
Dr. Fernando Ponce, S. J.
Rector
Dr. Fernando Barredo, S. J.
Vicerrector
Dra. Fabiola Jarrín
Directora General Académica
Dra. Verónica Yépez-Reyes
Decana de la Facultad
de Comunicación, Lingüística
y Literatura
Mtr. Santiago Vizcaíno Armijos
Director del Centro
de Publicaciones
Comité Científico Internacional:
Dra. Amaia Arribas Urrutia.
Universidad de los Hemisferios
Dr. Ignacio Aguaded,
Universidad de Huelva
Dr. Octavio Islas Carmona,
Tecnológico de Monterrey /
Universidad Central del Ecuador
Dr. Ángel Hernando,
Universidad de Huelva
Comité Ejecutivo de Publicaciones
Dra. Andrea Muñoz
Dr. César Eduardo Carrión
Mtr. Santiago Vizcaíno Armijos
Diseño de portada y diagramación:
Rafael Castro
Corrección:
Centro de Publicaciones
ISBN: 9789978775158
Impresión:
Tiraje: 000 ejemplares
Quito, diciembre 2020
Impreso en Ecuador. Prohibida la reproducción de este libro, por cualquier medio, sin la previa autorización por escrito de los propietarios del Copyright.
Diseño epub:
Hipertexto – Netizen Digital Solutions
Prólogo
El análisis y la visualización de datos en la investigación periodística: una revisión de cinco casos latinoamericanos
Comunicación algorítmica en la elaboración de contenidos
La importancia de las analíticas en el periodismo digital
Leo Burnett, el paso del periodismo al copy publicitario y la evolución del texto impreso a la narrativa digital
La brecha digital ecuatoriana y sus efectos en el desarrollo de la televisión del futuro
Estonian journalists reactions to audience feedback
¿Por qué aceptamos las noticias falsas en la era digital?
Periodismo cultural de Quito en las plataformas digitales. El caso de La Barra Espaciadora y Cartón Piedra
Comunicación política en Twitter. Análisis de los perfiles de los principales medios de comunicación españoles durante la campaña del 10N
Xosé López García1
Más de siglo y medio de periodismo moderno nos aporta una rica herencia para afrontar los desafíos en la era digital. El camino recorrido hasta aquí no ha sido fácil, pero ha resultado socialmente útil —su aportación ha sido crucial para conocer qué hay detrás de las noticias puntuales y para un mejor funcionamiento de las sociedades plurales— y ha estado salpicado de episodios relevantes —desde el “Watergate” a los “Panama Papers” —. Para los profesionales que lo han ejercido, ha sido desde el mejor oficio del mundo (Gabriel García Márquez) hasta un oficio para el que no sirven los cínicos (Kapuscinski). Esa curiosa profesión (Vázquez Montalbán dixit) ha sido objeto de dimes y diretes, pero ha conseguido convertirse en imprescindible para la construcción de sociedades bien informadas.
Alrededor del periódico (de los impresos periódicos) comenzó la etapa dorada del periodismo, a la que luego contribuyeron la radio, la televisión y los medios digitales online. Al calor de la industrialización emergió la industria periodística con el diario como referente informativo. Los periódicos —esos museos de minucias efímeras, en palabras de Borges— indicaron la ruta del progreso (Víctor Hugo) cuando reinaba la escasez informativa. De gacetas pasaron a faros, voces, ecos… que fijaban la agenda, marcaban los temas sobre los que había que pensar y situaban a los ciudadanos ante el espejo. La radio y la televisión enriquecieron el panorama con la voz y la imagen como estandartes.
Bajo la alargada sombra de dos grandes guerras mundiales, la industria mediática estableció modelos y fijó posiciones en un contexto de “guerra fría”. Distintas innovaciones tecnológicas —en especial el paso del plomo al offset— mejoraron los sistemas de producción de la pesada industria de los medios impresos, mientras la informática avanzaba y en los laboratorios se investigaba sobre la comunicación entre ordenadores. Era la segunda mitad del siglo XX y la tecnología digital llamaba a la puerta, aunque nadie adivinaba los grandes cambios que llegarían con la entrada del nuevo milenio. Había, eso sí, importantes investigaciones en marcha que permitieron explorar renovados territorios. Fue en ese contexto cuando, tras la aparición de la web, la evolución de la red de redes y de la tecnología digital impulsó la construcción del camino a la sociedad red actual.
Desde mediados de los noventa del siglo pasado, la migración de los medios a la red, con estrategias más o menos acertadas —algunas, muy inocentes—, se convirtió en un campo de experimentación de la mano de los profesionales que tuvieron la oportunidad de practicar el periodismo para los medios online. Después de la crisis de las punto com, ya en el tercer milenio, todos los vientos fueron favorables a la búsqueda de vías para conquistar los nuevos territorios. La emergencia de la web social y la aparición de las grandes redes sociales contribuyeron a alimentar el renovado ecosistema comunicativo, donde la hiperabundancia de mensajes enterraba definitivamente el viejo modelo comunicativo del siglo XX.
En medio de constantes cambios, el periodismo hacía todo lo posible por adaptarse a los tiempos de la sociedad red, que caminaba bajo la estela digital y la ubicuidad comunicativa. Los procesos de reconfiguración en marcha incentivaban las prisas, lo que favoreció la improvisación y el desconcierto en muchas estrategias. Con todo, a pesar de las dificultades, la necesidad de afrontar desafíos y la constante innovación, alimentaron la ilusión por emprender la conquista de nuevos tiempos para el periodismo durante la primera etapa de la transición al escenario digital, en el que convivían y competían medios migrantes digitales y nativos digitales.
Los resultados de esta fase de transición al escenario digital han mostrado no solo la capacidad de adaptación del periodismo al nuevo entorno sino su empeño en cumplir su papel en la sociedad mediante renovadas alianzas con los ciudadanos, en especial con las audiencias activas que participan y generan contenidos. No obstante, el cambio tiene una cara B. Lo que ha quedado patente en este tránsito es que también hay consecuencias negativas para los periodistas (más precarización en el empleo, más tareas), para la industria (la ruptura del modelo de negocio, las necesarias reestructuraciones periódicas) y para los ciudadanos (nubes de desinformación, más ruido, vigilancia colectiva).
Una rápida mirada al periodismo del pasado siglo XX nos muestra que, aunque lo básico de esta técnica de comunicación social permanece —los elementos básicos, la preceptiva, los principios deontológicos—, Internet ha cambiado el panorama comunicativo y ha obligado al periodismo a dar renovadas respuestas y explorar dimensiones antes desconocidas. En cualquier caso, no todo ha sido aciertos y muchos desafíos del pasado persisten (más y mejor investigación, mejores condiciones de trabajo, cumplimiento de los principios éticos, rendición de cuentas), sin que se conozcan recetas mágicas que conduzcan al éxito.
El mapa de los mundos periodísticos actuales muestra un escenario global poblado de culturas periodísticas que reflejan gran diversidad por áreas geográficas y por países. El periodismo digital es una realidad de la sociedad red de la tercera década del tercer milenio que, aunque tiene dos caras como el mítico dios Jano (la que mira al pasado y la que mira al futuro) no tiene vuelta atrás, pero que cuenta en el horizonte con un futuro que debe conquistar en el día a día informativo. A fin de cumplir este objetivo, necesitará renovar alianzas con los sectores ciudadanos empeñados en la construcción de sociedades bien informadas.
En un entorno donde cada vez tiene más peso el entramado tecnológico —la tecnología 5G, la inteligencia artificial, la tecnología Blockchain— el compromiso con el interés público sigue siendo la piedra angular sobre la que se asienta un periodismo que debe mantener un nítido camino ético que selle la calidad de las piezas que explican lo que ocurre en la sociedad. Los periodistas siguen precisando un marco que garantice su autonomía profesional para enarbolar la bandera de la imparcialidad y de los roles de vigilancia, altavoz de la ciudadanía y dinamizador social, es decir, los que se sitúan en el campo de los estimuladores de la opinión pública y que combaten a los narcotizadores de esa misma opinión.
Tras el apagón tecnológico y el despertar digital, como el profesor e investigador Jorge Andrés Cruz Silva ha titulado con acierto este libro, el periodismo está más vivo que nunca, aunque no es menos cierto que hay muchas amenazas que se ciernen sobre él. En un escenario mundial marcado por la desinformación, con un caldo de cultivo muy favorable para la propaganda y otras técnicas de comunicación lícitas pero que nada tienen que ver con el “mejor oficio del mundo”, el periodismo digital precisa vitaminas que le fortalezcan en las complejas sociedades actuales, a fin de que no renuncie a cumplir sus cometidos esenciales.
Con el objetivo de mantener ese papel central que tiene el periodismo digital en las sociedades actuales, los medios precisan mejorar los mecanismos y las técnicas para conocer bien a sus audiencias y atender sus demandas y necesidades. Los usos y consumos informativos han cambiado radicalmente en el tercer milenio y los medios no siempre han conseguido fidelizar a sus públicos porque han tenido problemas para entender los comportamientos de las audiencias en general y de las suyas en particular. Las métricas se han convertido en una pesadilla para muchos periodistas, que encuentran dificultades para implicar adecuadamente a las audiencias mediante distintas estrategias colaborativas, que van desde la participación hasta las diferentes modalidades de cocreación.
Además de la pérdida de credibilidad —la confianza en los medios y los periodistas se ha resentido en casi todos los países de nuestro entorno iberoamericano en las dos últimas décadas— y las dificultades para sintonizar con las viejas y nuevas audiencias, en el ecosistema comunicativo se libra un pulso entre las empresas tecnológicas y la industria mediática —tanto de medios matriciales como de medios nativos digitales—. Las difíciles relaciones de la industria mediática, en constante transformación para adaptarse a los procesos de la sociedad red, y los gigantes tecnológicos (Google, Facebook, Microsoft, Apple) que fijan las reglas de funcionamiento del campo de la comunicación e imponen sus criterios, anuncian tiempos convulsos en los que todo apunta a que se mantendrá la tendencia de los últimos años, en los que han aumentado las voces que demandan reforzar el control sobre el entramado tecnológico y nuevos mecanismos de rendición de cuentas —de las tecnológicas y de la industria mediática—. Cada vez son más los ciudadanos que demandan mejoras en los mecanismos de transparencia de los actores de un ecosistema comunicativo que muestra luces y sombras.
Los desafíos son muchos y diversos, pero el talento periodístico tiene ante sí renovadas oportunidades en el empeño de dar pasos adelante que hagan posible una sociedad mejor informada. Con iniciativas informativas sostenibles, mediante modelos de negocio eficaces y periodistas bien preparados, dotados de formación humanística y capaces de emplear las herramientas actuales, el periodismo tendrá ocasión de revalidar su centralidad en la construcción de las sociedades futuras en el horizonte del Ecuador del siglo XXI. Siempre, eso sí, en alianza con los sectores sociales más dinámicos y en clave digital.
Paúl Mena Mena, MLitt
University of Strathclyde, Glasgow, UK
hpaulmena@gmail.com
En Latinoamérica cada vez es más común que las investigaciones periodísticas se sustenten en el análisis de datos, y que sus publicaciones vayan acompañadas de visualizaciones de los mismos. Ante este escenario cabe preguntarse: ¿de qué manera el análisis y la visualización de datos se han integrado a la metodología de la investigación periodística? A partir del estudio de los cinco proyectos que fueron galardonados con el Premio Latinoamericano de Periodismo de Investigación entre 2013 y 2018, el presente ensayo muestra que el trabajo con bases de datos ya no se utiliza solo para contextualizar y profundizar los hallazgos de una investigación, sino que los periodistas usan los datos como fundamento para confirmar sus hipótesis planteadas previamente, para abrir nuevas líneas de investigación e, incluso, para consolidar sus revelaciones mediante la construcción de bases de datos propias. Además, este ensayo expone cómo ha ido creciendo la aplicación de técnicas narrativas basadas en datos para crear visualizaciones con el fin de explicar de mejor manera las revelaciones de las investigaciones periodísticas. Para entender qué implicaciones epistemológicas se derivan del trabajo con datos, este artículo hace un recorrido teórico sobre la definición y la metodología del periodismo de investigación, se discute el lugar que ocupan los datos en la investigación periodística, y se repasan las técnicas narrativas basadas en datos que han sido aplicadas al trabajo periodístico.
El periodismo de datos ha ganado terreno en los medios de comunicación latinoamericanos en los últimos años. Importantes medios han integrado en sus redacciones a equipos combinados de periodistas y programadores dedicados exclusivamente al desarrollo de esa disciplina. Su influencia también ha dejado marca en la metodología aplicada a las investigaciones periodísticas. Este tipo de publicaciones expone la gran cantidad de datos que los periodistas deben ordenar y analizar para comprobar sus hipótesis, lo que supone el uso de técnicas asistidas por computador para evitar el naufragio en un mar de datos. Asimismo, cada vez es más usual que los reportajes investigativos vayan acompañados de visualizaciones de datos, desde tablas hasta aplicaciones, para dar sustento a los que revelan. Esto deja ver cómo el análisis de bases de datos se ha integrado a la metodología de la investigación. Para dar cuenta del espacio que ese tipo de trabajo ha ganado en la investigación periodística latinoamericana, el presente ensayo estudia los reportajes que ganaron el Premio Latinoamericano de Periodismo de Investigación, el galardón más importante de la región, entre 2013 y 2018. Al momento de elaborar este estudio, aún no se celebraba la edición 2019 del premio. Este trabajo parte de una discusión teórica sobre el periodismo de investigación, sobre el lugar que el análisis de datos ocupa en la metodología de la investigación periodística y sobre las técnicas narrativas impulsadas por datos. Estas consideraciones teóricas sirven de insumo para el análisis de las investigaciones ya mencionadas.
La discusión sobre si todo periodista es investigativo o, al menos debería serlo, suele ser recurrente en las aulas donde se preparan los futuros reporteros. Si bien la cobertura de una noticia requiere de una mínima investigación previa, esto no hace que esa publicación sea considerada como investigativa. Tampoco el hecho de que en los medios televisivos y radiales se llame investigación al trabajo que hacen los reporteros para recolectar la información que servirá de insumo para cualquier tipo de reportaje. Lo que hace que el periodismo de investigación sea considerado como tal son tres características: primero, que su objetivo sea revelar algo que un grupo de poder ha mantenido oculto con el fin de preservar sus intereses; segundo, que esa revelación sea de interés público; y, por último, que sea el periodista quien realiza la investigación, no una autoridad cuyo informe sale a la luz gracias a la publicación de un medio (Santoro, 2004; Atwood, 2010). Estas tres condiciones esenciales hacen de la investigación una disciplina diferenciada de otros tipos de periodismo.
Varios autores agregan otras características que distinguen al periodismo de investigación. La mayoría coincide en la recolección de gran cantidad de documentos, tanto públicos como privados (Atwood, 2010; Dinges, 2010; Hunter, 2013; Houston, Bruzzese, & Weinberg, 2002). El periodismo anglosajón llama documents state of mind a la habilidad de reconocer, recolectar, ordenar y analizar la mayor cantidad de papeles que se producen alrededor de un asunto (Dinges, 2010; Houston, 2010). Un documento lleva a otro y este a otro, debido a los hechos que cada uno va evidenciando. De esta manera, es común que los reporteros se llenen de papeles y que los testimonios queden en segundo plano como validadores de datos. Otro elemento diferenciador del periodismo de investigación es el tiempo prolongado que el periodista dedica al proyecto (Hunter, 2013; Houston, Bruzzese, & Weinberg, 2002). El trabajo no se publica hasta que la información no esté completa. Esto no sucede en la cobertura diaria, pues la historia que se publica incompleta un día puede ampliarse en la edición siguiente. En definitiva, el periodismo de investigación es una disciplina que requiere la revisión de una gran cantidad de documentos, sin importar el tiempo que esto conlleve, pues el objetivo es abarcar la mayor cantidad de aristas alrededor de la historia.
Si bien los pasos a seguir en una investigación periodística divergen según cada autor, existen criterios comunes que permiten establecer ciertas normas generales al momento de plantear una metodología. Esas divergencias se dan por varias razones. Primero, hay que considerar que algunos autores advierten que el método no es una camisa de fuerza inamovible, sino que su aplicación depende de cada proyecto; además, el esquema de investigación tiene principalmente fines didácticos y difícilmente puede aprehender la flexible y compleja realidad (Santoro, 2004; Dinges, 2010). Asimismo, hay que tomar en cuenta que algunas propuestas hacen hincapié en que no se trata de seguir un paso tras otro, sino que las etapas se deben aplicar de manera simultánea (Santoro, 2004; Atwood, 2010). Por último, cada autor decide extender una fase o aplicar recursos extras de acuerdo con su experiencia previa. Por estas razones es que se registran diferencias entre las propuestas metodológicas. Por ejemplo, hay divergencias sobre el momento en que se debe delimitar el tema de investigación. Mientras el periodista argentino Daniel Santoro (2004) propone hacer la delimitación antes de plantear la hipótesis, el periodista estadounidense Roger Atwood (2010) anota que hay que hacerlo después. Otros desacuerdos son más significativos. Tras la elaboración de la hipótesis, Atwood plantea que se debe presentar el proyecto al director del medio, no sin antes establecer cuál será el mínimo de revelaciones a conseguir. El investigador estadounidense John Dinges (2010) agrega que, junto con esa declaración de resultados mínimos, el periodista debe exponer todas las evidencias2 que posee hasta ese momento para darle fuerza a su plan. El investigador francés Mark Lee Hunter (2013) va más allá, pues añade que se debe hacer un cronograma, un presupuesto y un plan de promoción de la historia que será dirigido a la audiencia. En todo caso, los autores analizados coinciden en que antes de iniciar la recolección de la información, es necesaria la planificación, cuyo núcleo es el planteamiento de la hispótesis, la misma que deberá ser corroborada o negada más adelante. Esta es la primera etapa de la investigación.
TABLA 1
EL MÉTODO DE INVESTIGACIÓN PERIODÍSTICA
La siguiente fase es la de reportería. Los métodos revisados coinciden en que las fuentes, tanto documentales como personales, se deben consultar desde lo general a lo particular. Hunter (2013) recomienda consultar todas las fuentes abiertas, que son de acceso público, antes de consultar a las fuentes personales. Además, los autores consultados siguen el modelo from the outside in, planteado por los investigadores del The Philadelphia Inquirer, James Steele y Donald Barlett (Houston, Bruzzese, & Weinberg, 2002). El modelo propone hacer un esquema de círculos concéntricos donde el investigado se encuentre en el centro y, a su alrededor, los personajes con los que se relaciona, dependiendo de su cercanía: los más alejados afuera y los más cercanos adentro. Los primeros en ser consultados serán los más apartados. Paulatinamente, el periodista debe ir cerrando los círculos hasta que, al final y solo al final, contacta al protagonista de la trama para la entrevista de contrastación. Dinges (2010) hace una clasificación de fuentes personales para determinar en qué orden deben ser consultadas. Para este autor, primero se debe contactar a las fuentes de conocimiento indirecto, que son expertos en el campo que se está investigando. Los académicos, los activistas y otros investigadores o periodistas entran en esta clasificación. Luego hay que ir por las fuentes de conocimiento directo: los testigos, las víctimas y los posibles culpables. La contrastación con los personajes cuestionados se realiza al final por cuestiones de estrategia y seguridad, pues si un poderoso se da cuenta de que alguien está siguiendo sus pisadas, lo más probable es que intente destruir evidencias importantes o que utilice su influencia para obstaculizar o, incluso, parar al periodista.
La tercera fase es el análisis de la información obtenida y, para ello, los autores ofrecen una serie de técnicas. La primera es el archivo tanto físico como digital de los documentos. Esto permite ahorrar el tiempo que se puede desperdiciar en la búsqueda de información ya obtenida. Además, Santoro (2004) y Dinges (2010) recomiendan la elaboración de un memorándum, que es una especie de diario donde el periodista anota qué hizo cada día, pues advierten que el reportero puede perder el control entre tanta información. Para cruzar los datos que se van recopilando, Santoro (2004) propone hacer un cuadro de doble entrada: en el lado de las columnas se colocan datos como direcciones, teléfonos, abogados, contadores y otros datos; y en el de las filas, los principales sospechosos de la investigación. El objetivo es corroborar si existen conexiones entre los personajes como, por ejemplo, si comparten el mismo teléfono, dirección, contador o encontrar cualquier otra coincidencia. Otra técnica recomendada por Santoro (2004) es la elaboración de una línea de tiempo, en la que se ordenan cronológicamente las actividades realizadas por los investigados. De esta manera, pueden aparecer relaciones entre hechos que de otra manera parecerían desconectados (Houston, Bruzzese, & Weinberg, 2002; Santoro, 2004). La idea de recopilar datos en un solo archivo para ubicar conexiones también es retomada por Hunter (2013), pero de manera más ambiciosa. Él propone la elaboración de un archivo maestro, que consiste en registrar todos los datos en un documento de texto o en una hoja de cálculo. Deben quedar las transcripciones de entrevistas, los extractos de documentos, la información de las fuentes, las anotaciones del periodista… en suma: todo. Esta técnica equivaldría a una síntesis del archivo, el memorándum, la cronología y la tabla para cruzar datos. Al final, todos los investigadores coinciden en que, si los resultados de la reportería y su análisis contradicen la hipótesis, esta debe ser perfeccionada tantas veces cuantas sea necesario. Por último, queda la etapa de producción, en donde se redacta y edita el reportaje. En definitiva, la investigación periodística se lleva a cabo en cuatro momentos —planificación, reportería, análisis y producción— que operan simultáneamente (Ver Tabla 1).
Uno de los mayores retos de la investigación periodística es no naufragar en un mar de datos inconexos. Los métodos analizados dejan ver la gran cantidad de documentos y testimonios que los investigadores tienen que recopilar y analizar para poner a prueba sus hipótesis. Santoro (2004), por ejemplo, plantea que el primer paso de la reportería es buscar los antecedentes de todos los personajes involucrados y propone una lista de quince fuentes dónde conseguirlos aunque, dependiendo de la organización burocrática de cada país, el número de instituciones a consultar puede incrementarse. Junto con los documentos y testimonios van apareciendo datos. Lo que permite el método de investigación es encontrar las conexiones entre esos datos. Por ejemplo, si salta a la vista que una empresa está acaparando los contratos de una institución pública, se revela un dato interesante. Siguiendo el método de investigación, se podría corroborar si esa compañía tiene relación con algún funcionario de esa institución. Lo que se necesita es encontrar los nexos.
La investigación periodística también trabaja con estadísticas. El método sugerido por Atwood (2010) recomienda que el periodista establezca lo que el autor llama la práctica generalizada o la situación normal del tema que está indagando. Para comprender este concepto, pone como ejemplo un reportaje que denunció la falta de atención médica a niños que sufrían el síndrome de Chediak-Higashi, los llamados niños grises, en el estado de Táchira, en Venezuela. Uno de los puntos claves de la historia, resalta el autor, fue que la periodista logró mostrar que la tasa de incidencia de esa enfermedad era muy alta en esa región. Esa era la situación normal. Atwood (2010) indica que el análisis estadístico permite entender el fenómeno para después describírselo al lector, pero para ello no solo es necesario mostrar las cifras, sino también darles contexto y explicación. Una base de datos puede aportar de diferentes maneras a una investigación: puede revelar una tendencia, encontrar patrones, identificar un caso inusual, dar profundidad o proveer contexto (Houston, Bruzzese, & Weinberg, 2002; Lehren, 2018). Lo fundamental es que el dato que salga del análisis estadístico no quede aislado, sino que se conecte con los otros elementos de la investigación.
Los trabajos que incluyen análisis de bases de datos no dejan de lado la reportería de a pie, las entrevistas, ni la búsqueda de documentos. El periodista estadounidense Andrew Lehren (2018) cuenta que cuando participó en la investigación Iraq War Logs, que expuso los archivos secretos de seguridad filtrados por el soldado Chelsea Manning a Wikileaks en 2010, pudo revisar el contenido de los casi 400 mil reportes militares gracias al conocimiento de herramientas de bases de datos. Sin embargo, eso no fue suficiente. Lehren también fue tras los registros públicos: auditorías, contratos, transcripciones de audiencias y noticias. Esto le permitió establecer una lista de cien contratistas de seguridad privada involucrados en la guerra de Irak. El periodista corrió ese listado en los archivos filtrados haciendo nuevas consultas, para asegurar que no se le había escapado algún detalle. Complementar el análisis de bases de datos con reportería tradicional fue un acierto, concluyó el reportero. Si bien la masiva digitalización de la información obliga a la construcción de un nuevo perfil de periodista, esto no implica que el uso de nuevas tecnologías deje de lado las técnicas tradicionales ni que la investigación se confine a un trabajo de escritorio (Hahn & Stalph, 2018; Houston, 2004).
El periodismo de datos, también llamado periodismo dirigido por datos (Data-Driven Journalism, DDJ) o reportería asistida por computador (Computer-Assisted Reporting, CAR), ofrece varias herramientas al periodismo de investigación. Houston, Bruzzese y Weinberg (2002) han identificado cinco herramientas básicas que tienen vigencia hasta la actualidad. La primera son las bases de datos oficiales que se encuentran en los sitios web de las instituciones públicas, aunque también se las puede obtener a través de pedidos de acceso a la información. La segunda herramienta son las hojas de cálculo, que permiten computar los registros de esas bases. También están los administradores de bases, con los que se puede agrupar, filtrar, resumir, unir o comparar enormes cantidades de registros. Otra herramienta son los visualizadores, que permiten graficar los datos en tablas, cuadros y mapas, e incluso diseñar infografías e historias interactivas. Por último, están los programas de estadística, a través de los cuales se pueden identificar patrones significativos en una base de datos. En la actualidad, existen programas informáticos que reúnen varias de las herramientas aquí descritas y otras adicionales como, por ejemplo, la capacidad de recolectar y limpiar datos. Chevalier y otros (2018) ofrecen un catálogo de herramientas utilizadas por nueve especialistas -periodistas, diseñadores e investigadores académicos-, donde se incluyen a trabajadores de The Washington Post, The Guardian y Spiegel Online. Entre las herramientas de acceso gratuito calificadas como de capacidad media-alta y alta están D3, R, Python, JavaSript y Tableau.
Desde mediados de la primera década del presente siglo, varios medios estadounidenses y británicos han contratado programadores informáticos dentro de sus redacciones, que son reconocidos como periodistas programadores (programmerjournalists). El profesor Paul Bradshaw (2018) apunta que la incorporación de esos profesionales y la adopción de técnicas para analizar datos han ofrecido una alternativa al trabajo investigativo basado en la elaboración de hipótesis. “Esto (el uso de hipótesis) puede ser útil para enfocar una investigación, pero también puede pasar por alto información que puede conducir a historias más importantes” (Bradshaw, 2018, la traducción es mía). Es decir que el análisis de datos no se usa solo para confirmar o negar una sospecha, sino para descubrir nuevos lineamientos de la investigación.
Los investigadores Sylvain Parasie y Eric Dagiral (2012) señalan que, si bien el principal deber de los programadores en una redacción es diseñar visualizaciones, estos profesionales, que en su mayoría están relacionados a movimientos activistas que promueven el software libre y el gobierno abierto, han desarrollado una nueva epistemología3 que pone en cuestión el modelo establecido de cómo los datos pueden aportar a una investigación. Los autores identifican tres proposiciones extraídas del trabajo de los programadores, las mismas que cuestionan la forma en que el periodismo tradicional mira al procesamiento de datos.
La primera pone en duda la concepción de la noticia. Los programadores la ven como información estructurada. Esto implica que la noticia no debe ser considerada como algo que está escondido en las bases de datos y que el periodista tiene que descubrir usando conceptos estadísticos (Houston, 2004). Para los programadores, lo importante es que la base de datos esté completa y que sea los más granular posible, es decir, que su unidad de descripción no sea general (países, regiones, estados, provincias o ciudades), sino específica (personas, cuadras, manzanas, escuelas, hospitales…). Si cumple estas condiciones, la base es en sí misma la noticia. No esconde nada. Otra implicación de esta tesis es que las bases ya disponibles no deberían ser consideradas como la única herramienta legítima en que los datos apoyan una investigación periodística, sino que hay otra alternativa: todo lo que los reporteros recolectan es susceptible de ser estructurado en una nueva base. Parasie y Dagiral (2012) plantean que “estas técnicas (computacionales) permiten que una base sea diseñada a partir de datos heterogéneos -números, palabras, fotos, etc.-” (pág. 863, la traducción es mía). Considerar a la noticia como información estructurada rompe las barreras con que el periodismo tradicional mira el potencial de los datos para apoyar una investigación.
La segunda proposición está relacionada al diseño de herramientas que permitan a la audiencia explorar los datos directamente. Los programadores sostienen que el público no solo debería tener la posibilidad de chequear los datos, sino también de combinarlos y usarlos para sus propios propósitos (Parasie & Dagiral, 2012). Esto pone en cuestión el rol mismo del periodista, que tradicionalmente ha sido considerado como un mediador entre la audiencia y la realidad (Restrepo, 2004). No obstante, los investigadores Stolper, Lee, Riche y Statsko (2018) advierten sobre los riesgos de brindar a los lectores una exploración sin límites. Previenen que, si los consumidores pudieran cambiar la visualización significativamente, los datos presentados podrían dejar de tener consistencia con la narrativa que está a su alrededor; además, que el lector podría perderse ya sea por la carga o la filtración exageradas de datos. Frente a ello, estos autores proponen proveer herramientas de exploración contraladas por el periodista. Lo que es imperativo para los programadores es que las herramientas de exploración de datos ayuden a que los ciudadanos puedan tomar decisiones en su vida diaria. Para ellos, el periodista debería dejar de tener un papel central y permitir que los lectores contribuyan legítima y activamente en el proceso (Parasie & Dagiral, 2012).
La última tesis se relaciona con la posibilidad de reducir la dependencia que los periodistas tienen con las agendas gubernamentales. Si bien el descubrimiento de irregularidades en el gobierno ha sido una tradición en el periodismo de investigación, los programadores cuestionan que, en gran medida, esas revelaciones dependen de la disposición del mismo gobierno para transparentar su gestión (Parasie & Dagiral, 2012). La propuesta se entiende bien en el contexto donde los investigadores realizaron el estudio: Chicago. Ahí las autoridades locales publican periódica y automáticamente bases de datos que permiten a los programadores formar sus propias bases enfocadas a rendir cuentas al gobierno federal. De acuerdo con el estudio, el 47% de los proyectos de periodismo de datos publicados por el Chicago Tribune entre el 2009 y 2011 se realizaron con bases diseñadas por el propio equipo del diario, mientras que esa cifra fue de apenas el 7% en las publicaciones hechas entre 2002 y 2009. Con estas herramientas de investigación, subrayan los autores, la revelación de irregularidades depende menos de las autoridades al interior del gobierno federal.
En definitiva, el estudio de Parasie y Dagiral (2012) revela cómo la incorporación de programadores a las redacciones ha generado tensiones con respecto a la tradición periodística. Las tesis extraídas del trabajo de esos especialistas amplían la noción que se tiene de noticia, alientan la participación de las audiencias en la producción de contenido y brindan una alternativa para evitar la dependencia que puede tener el periodista con respecto a las autoridades para revelar irregularidades.
El análisis de datos no solo representa una oportunidad para encontrar historias, sino que también ofrece un campo para desarrollar novedosas formas de contarlas. Si bien la producción de narrativas basadas en datos excede la posibilidad de una taxonomía rígida, es necesario considerar algunos conceptos básicos para reconocer esas piezas. El profesor Alberto Cairo (2016) establece algunas definiciones que serán usadas en el presente estudio. El término visualización es el más general. Se refiere a cualquier tipo de representación visual de información para agilitar la comunicación, el análisis, la exploración, el descubrimiento, etc. El gráfico o diagrama es una visualización donde los datos están codificados con símbolos que tienen diferentes formas, colores o posiciones, por lo regular dentro de un plano cartesiano. Algunos tipos de gráficos son los de barras, los de puntos, los de distribución, los de tiempo y los de inclinación. El mapa es la descripción de un área geográfica a través de la representación de datos que pertenecen a esa área. La infografía se caracteriza por contener múltiples secciones (gráficos, mapas, ilustraciones, texto) dirigidas a comunicar uno o más mensajes específicos. La visualización de datos está diseñada para que la audiencia analice, explore y descubra a través de la navegación por los datos. Lo importante aquí es que el lector extraiga sus propias conclusiones. Por último, la aplicación de noticias (newsapp) permite a la audiencia relacionar los datos con sus vidas, de tal manera que pueda usar esa información para tomar decisiones cotidianas. El principal objetivo, aquí, es que la aplicación sea adaptable a las necesidades de cada persona. Los dos últimos tipos de visualización se compenetran con los objetivos señalados por los programmer-journalists en el estudio de Parasie y Dagiral (2012). De otra parte, Cairo (2016) advierte que los límites entre los tipos de visualización citados son borrosos. Existen trabajos híbridos que son difíciles de clasificar. En esos casos, señala el autor, al menos se puede determinar cuál es la inclinación de esas piezas dependiendo de las intenciones del diseñador. Las definiciones propuestas por Cairo evitan el desencuentro entre profesionales de diversas ramas (matemáticos, ingenieros, estadistas, periodistas, mercadotécnicos, biólogos, economistas, médicos, investigadores sociales, entre otros) que confluyen en el análisis y visualización de datos.
Existen varias técnicas narrativas para realizar visualizaciones de datos. Luego de analizar cuarenta y cinco historias publicadas entre 2011 y 2015, Stopler, Lee, Riche y Statsko (2018) encontraron veinte técnicas que pueden ser agrupadas en cuatro categorías.
La primera de éstas puede ser denominada narración explicativa. Dentro de este grupo, los investigadores encontraron siete técnicas: la narración textual, que consiste en usar textos explicativos junto a la visualización; la narración con audio, que ayuda a dilucidar los datos usando una voz de fondo; el etiquetado, que son pequeños textos que identifican a los elementos de la visualización; el flujo con flechas, que ayuda a elucidar el sentido de la visualización; las anotaciones, que dan información extra para entender mejor el gráfico; los tooltips, que son mensajes cortos que aparecen cuando el cursor se posa en un componente de la visualización; y el resaltado, que sirve para atraer la atención de la audiencia hacia elementos importantes. Estas técnicas aseguran que el lector comprenda el sentido de la visualización.
La segunda categoría consiste en el enlace de elementos narrativos, que involucra tres técnicas: con interactividad, por ejemplo, cuando se selecciona un elemento en un texto y el mismo se resalta, se filtra o se detalla dentro de otro gráfico; la segunda técnica se hace con color para enlazar, por ejemplo, los elementos de un texto con los de una visualización; y la última técnica se realiza con la animación de los elementos. Estas técnicas permiten que la audiencia compare los elementos de una visualización.
La tercera categoría consiste en el refuerzo de la estructura narrativa y la navegación. Los investigadores detallan seis técnicas: habilitar botones previo y siguiente para avanzar o regresar la historia; usar el scrolling, que consiste en desarrollar la narración en la medida en que el lector se desplaza hacia abajo en la pantalla; ubicar hitos dentro de la visualización para indicar la posición del lector dentro de la narrativa; colocar botones en el encabezado o usar un menú, para identificar las diferentes partes de la visualización; graficar un mapa para que el lector pueda saltar de un lugar a otro; y establecer una línea de tiempo. Estas técnicas consolidan la narrativa y ayudan a contar una historia con los datos.
La última categoría se denomina exploración controlada y agrupa tres técnicas: la primera permite al lector realizar consultas dinámicas; la segunda consiste en incorporar la visualización dentro de la historia para que la audiencia tenga a mano el contexto de su exploración; y, en oposición, la tercera propone ubicar un hipervínculo en la historia para dirigir a la audiencia a una visualización separada en la que se pueda explorar sin límite. Estas técnicas procuran que el consumidor explore los datos sin perderse.
Los investigadores advierten que todas estas técnicas no se aplican de manera independiente unas de otras. Por el contrario, los diseñadores usan más de una técnica para conseguir sus objetivos narrativos. Una visualización puede contener más de una técnica para garantizar la comprensión de los datos.
País: El Salvador.
Medio: El Faro.
Tipo de medio: Digital.
Autores: Óscar Martínez, Carlos Martínez, Sergio Arauz y Efren Lemus.
Fecha de publicación: 14 de marzo de 2012.
Los periodistas Óscar Martínez, Carlos Martínez, Sergio Arauz y Efren Lemus (2012), de El Faro, revelaron que treinta líderes pandilleros fueron trasladados a inicios de marzo de 2012, desde cárceles de máxima seguridad a otras donde podían recibir visitas y tener contacto físico con personas del exterior, debido a un pacto con el entonces ministro de Justicia y Seguridad, David Munguía Payés. El trato consistía en que los pandilleros bajarían el número de homicidios durante un mes, que coincidía con las elecciones seccionales y parlamentarias, a cambio de ciertos privilegios. Los periodistas aseveraron que, de acuerdo con varias fuentes consultadas, los pandilleros no solo iban a ser trasladados, sino que habría el ofrecimiento de 10 mil dólares para sus familiares y el suministro de varias comodidades en los penales. Munguía Payés había prometido en noviembre de 2011, cuando fue posesionado en su cargo, que reduciría el 30% de homicidios en un año, pero al primer semestre de gestión, en febrero de 2012, las cifras se estaban elevando. Según el reportaje, en ese mes iniciaron las negociaciones con los pandilleros y el plan fue dirigido por el coronel Simón Molina Montoya, quien había asesorado a Munguía Payés cuando este fue ministro de Defensa.
Para hacer las revelaciones, los periodistas entrevistaron a un pandillero apodado El Muchacho, que era el jefe de una célula de la Mara Salvatrucha 13; también recogieron el testimonio de varios agentes encargados de hacer inteligencia policial y penitenciaria; y accedieron a un informe secreto del Centro de Inteligencia Policial (CIP). El reportaje también se sustenta en fuentes oficiales, por ejemplo, una intervención pública del ministro Munguía Payés en la que explicó que la reducción de homicidios en marzo de 2012 respondía al despliegue de seguridad por las elecciones, y una entrevista al director general de Centros Penales, Nelson Rauda. Los periodistas dejan registrados sus esfuerzos para contrastar la información con Munguía Payés y su subalterno el coronel Molina Montoya, y las negativas que estos les dieron.
Un insumo importante para esta investigación fueron las estadísticas de homicidios, pues verificaron que la reducción de crímenes coincidió con el pacto revelado por las otras fuentes. Los periodistas presentan ese análisis así:
El Muchacho repite que desde el sábado están de vacaciones. Ese día se registraron 10 homicidios, cuatro menos que la media que mantenía el mes. El día siguiente, día de elecciones legislativas y municipales, se registraron seis, y algunas fuentes lo adjudicaron al despliegue policial para custodiar los centros de votación. El lunes de esta semana, una cifra sin precedentes en los últimos dos años: dos homicidios en todo el país ya sin el despliegue policial del día anterior. El martes, la tendencia se mantuvo: tres asesinatos en todo El Salvador. Este miércoles, a las 7 de la noche, la tendencia seguía siendo sorprendente: cinco homicidios. (Martínez, Martínez, Arauz, & Lemus, 2012)
Los registros de cinco días fueron comparados con la media del último mes y con las cifras absolutas de los últimos dos años para corroborar el cumplimiento del pacto.
Si bien el análisis estadístico está presente en el texto de la investigación, la parte gráfica no incluyó una visualización de esos datos. El trabajo presentó un gráfico con las fotos de los principales líderes de las pandillas, sus nombres, sus apodos, sus posiciones dentro de la organización delictiva y las cárceles en la que estaban recluidos. Dos técnicas narrativas son identificables en esta visualización: el uso de etiquetas para identificar a cada miembro y el uso de colores para enlazar el texto (el nombre de las cárceles) con las fotos de los pandilleros.
País: Argentina.
Medio: La Nación.
Tipo de medio: Impreso.
Autores: Hugo Alconada Mon.
Fecha de publicación: 15 de diciembre de 2013
El periodista Hugo Alconada Mon (2013) destapó las millonarias facturas que el hotel Alto Calafate, perteneciente al matrimonio de Néstor Kirchner y Cristina Fernández, había emitido a siete compañías del empresario kirchnerista Lázaro Báez, quien había ganado múltiples contratos del gobierno. Según la investigación, el 90% de la facturación generada por el hotel fue destinado a Báez. Una de sus empresas, Austral Construcciones, reportó en su contabilidad 2,8 millones de pesos argentinos en pagos al Alto Calafate durante cinco meses de 2010. Citando a seis expertos, el autor concluyó que “los ingresos por la obra pública que recibió Báez durante años habría (sic) vuelto al bolsillo de los Kirchner mediante la operatoria hotelera” (Alconada Mon, 2013). La publicación se realizó tres años después de la muerte de Kirchner, cuando Fernández era presidenta de Argentina. De acuerdo con la investigación, Báez controlaba la empresa Villa Mitre S. A., que administraba el hotel. El periodista apuntó que un empleado de Báez, Daniel Pérez Gadín, investigado en otros casos de posible corrupción, habría servido de enlace, pues en su currículum detalló que asesoraba al Alto Calafate al mismo tiempo que trabajaba para el empresario. La conclusión fue que estas operaciones constituirían lavado de activos, evasión tributaria y negociaciones incompatibles con la función pública, entre otras figuras legales.