*¿Cómo cubrieron 3 periódicos colombianos el Paro Agrario 2013? Mi análisis con @pageonex

La reciente jornada de protestas en Colombia por parte del sector agrario, ha revestido rasgos destacables: Adhesión de múltiples sectores, respaldo de la opinión pública, acuerdos que implican revisar términos de un tratado de libre comercio con Estados Unidos y el peor momento de la presidencia de Juan Manuel Santos.

Estos hechos no pasan desapercibidos para un país donde históricamente la protesta social ha sido marginal y por el contrario ha sido víctima de la criminalización por parte del Estado. Los resultados pueden inducir  -a los optimistas- a pensar que algo está cambiando y este fenómeno será sin duda, objeto de investigaciones que puedan ofrecer algunas respuestas.

Aunque son múltiples los actores involucrados, he querido realizar un ejercicio analítico sobre el papel desempeñado por los medios, en este caso prensa escrita, sobre la cobertura realizada durante los 19 días de duración del “paro agrario”. He seleccionado el material de portada de dos diarios de circulación nacional: “El Tiempo” y “El Espectador” y uno de circulación local “El Universal” de Cartagena. Para comprender el nivel de llegada, les incluyo un ranking nacional de acuerdo al Estudio General de Medios 2010 de los diarios mencionados:

ranking

La idea de seleccionar las portadas como objeto de estudio está radicada en gran parte en la teoría de Agenda- setting de Maxwell MacCombs y Donald Shaw, que sostiene que los medios de comunicación al darle relevancia o no a un tema, jerarquizan su percepción en la audiencia. Esta teoría ha otorgado por años un marco analítico para los medios y mejor aún, ha puesto de relieve la no neutralidad del acto de selección del editor. 

Las portadas son la hojeada rápida, la scrolleada de la mañana y el tema de discusión para el momento incomodo en el ascensor. Conscientes o no, nos marcan una agenda y de allí su importancia. Con la ayuda de PageoneX, una herramienta open source para el análisis, codificación y visualización de portadas, decidí examinar detenidamente el comportamiento de estos diarios durante el periodo de protesta, diferenciando el área dedicada a la misma, de las otras temáticas y del contenido publicitario.

El resultado pueden verlo en el siguiente gráfico:

AnalisisPAROagrario

La conclusión que salta a simple vista es que el único diario de los tres que mantuvo un espacio constante en frecuencia y área para el tema fue “El Espectador”, mientras que el comportamiento de “El Tiempo” fue variable, “El Universal” por su parte se destaca por la poca cobertura realizada. Sin embargo y teniendo en cuenta que en el caso de “El Tiempo” fue imposible[1] conseguir los datos para dos fechas como se observa en el área en blanco etiquetada s/d (sin datos), decidí añadir otro nivel al análisis, incorporando la lista de titulares de las noticias relacionadas al paro y resaltando en color, los términos con alta carga conceptual, que a mi juicio incurren en calificación del hecho.

 Titulares de “El Tiempo”

 17/8 16.000 policías, contra bloqueos

19/8 División en dos sectores claves del Paro

20/8 Incidentes en vías en la primera jornada de paro

21/8 Gobierno hará diálogos por separado con no violentos.

22/8 Boyacá, el más afectado por las protestas violentas

23/8 La protesta es con bloqueos, piedras y hasta desperdicio de leche

24/8 Incidentes en vía a la Calera por el paro

25/8 Paro golpea a tres regiones

26/8 No me van a enfrentar con los campesinos

27/8 Santos acepta negociar con campesinos de tres regiones

28/8 Paro: con oferta del gobierno empezó el dialogo

30/8 El vandalismo opaca la protesta en Bogotá

Marcha a favor de campesinos en la capital degenera en violencia y graves danos

31/8 Queda libre de bloqueos el corazón de la protesta

Hay expectativa en Boyacá por la reanudación de diálogos con campesinos

4/9 Protesta: más de 18000 indígenas marchan en Popayán

5/ 9 Protestas le pasan la cuenta de cobro a Santos.

Aunque el resaltado pueda señalarse como un ejercicio altamente subjetivo, la diferencia del tono es destacable si se compara con los titulares del Espectador, que destaca el carácter pacífico y la importancia de la protesta.

Titulares de “El Espectador”

19/8 Al paro nacional del agro se sumaron los camioneros y los mineros. Cafeteros del Huila no saldrán a protestar.

20/8 Diálogo, pero sin bloqueos

21/8 Protesta pacifica

23/8 En el asfalto

24/8 Paro llego a Bogotá

25/8 ¿Y si bajamos la guardia?

26/8 El costo diario del paro

27/8 Crisis agraria

28/8 Se crece el paro

29/8 A la espera

30/8 Así no

31/8 Después de la tormenta

1/9 ¿Por qué pasó?

2/9  Sembrando acuerdos

3/9 Renuncia protocolaria

Como ultimo nivel de análisis, propongo las imágenes de las portadas que acompañan las notas y que pueden verse en la versión interactiva. “El Tiempo” muestra  2 que generan rechazo: un camión en llamas bloqueando una vía y los campesinos arrojando leche a la vía. Una tercera de un hombre solo acomodando piedras, con la fuerza pública en el fondo. También se puede ver una imagen de las fuerzas especiales “cubriéndose” de los “ataques” de los manifestantes[2]. Las imágenes positivas presentan la marcha de apoyo de los pueblos originarios marchando en Popayán y la del acuerdo, donde entre todos mueven un tronco que obstruía la vía. Por su parte el “El Espectador” se concentra en mostrar imágenes de los marchantes, incluyendo los mensajes de sus pancartas, y algunas situaciones de desventajas frente a la fuerza pública.

Este ejercicio es factible de profundizarse y está disponible para quien quiera hacerlo, sin embargo el balance está lejos de la realidad y  revela ostensiblemente la importancia de las redes sociales en la protesta social: paralelamente a las publicaciones analizadas, circularon numerosos vídeos que reflejaban los graves abusos de la fuerza pública contra los manifestantes. El grado de violencia perpetrado, los convierten en material sensible que he decidido no incluir en este post, pero que pueden ser encontrados en Youtube y Twitter bajo las etiquetas “paro agrario” #paro agrario #esmad.

La Comisión nacional de derechos humanos de la Mesa Nacional Agropecuaria y Popular de Interlocución y Acuerdos emitió un comunicado informando que durante el paro se presentaron:

660 casos de violaciones a los derechos humanos individuales y colectivos en todo el país
262 detenciones arbitrarias
485 personas heridas
21 personas heridas con arma de fuego
52 casos de hostigamientos y amenazas contra los manifestantes y líderes sociales
4 personas desaparecidas
51 casos de ataques indiscriminados a la población civil en diferentes departamentos del país

– la pérdida de 12 vidas a causa de impacto de arma de fuego.

¿Qué dijeron los periódicos colombianos de estas víctimas?

Mientras las negociaciones, los costos económicos y las consecuencias políticas del Paro superen en importancia las graves violaciones de derechos humanos, nuestra capacidad de construir la paz en Colombia, seguirá viciada.

Prioridades en desorden, como es usual.


[1] Agradeceré el dato si alguien puede facilitármelo 

[2] Me permití el uso de las comillas, por las razones que expongo al final de esta entrada.

5 razones para no perderse la Media Party 2013

El pase de diapositivas requiere JavaScript.

Durante los últimos tres días de agosto, tendrá lugar en Buenos Aires la Media Party 2013 de hacks/hackers BA. La segunda versión de este evento, triplicó sus contenidos y conservó el espíritu abierto y gratuito que lo caracterizan. Aunque pareciera tiempo suficiente, lo que no se ve a simple vista es la cantidad de información valiosa que se ha compactado en pocas horas. Solo la jornada de apertura (9:00 a.m. – las 12:00 m) ofrece diez keynotes con pioneros de la tecnología en los medios. Si eso no es suficiente, aquí están 5 razones más para no faltar al evento del año:

1. Porque es disruptiva: Sin querer caer en el discurso naive de lo novedoso, la innovación representa la oportunidad de aprovechar las herramientas disponibles para mejorar toda clase de procesos individuales y sociales. La tecnología alteró la manera como percibimos la realidad, enfatizando en la experiencia sensorial y simplificando lo complejo para hacerlo accesible. Lo radical de este cambio impide ignorarlo y espacios como este presentan una amplia variedad de matices para entenderlo. Sector público, privado o ciudadanía a secas encuentran nuevas formas de intercambiar ideas, discutirlas y mejorarlas.  

2. Porque desmitifica: La historia ha conservado por siglos la tajante división entre ciencias naturales y humanas y en la naturaleza de esa pugna se nos ha privado del fructífero intercambio entre ambas. Que el medio a través del cual nos comunicamos requiera ser escrito en “un código”, implica que debemos entenderlo. Escuchar a periodistas, escritores y diseñadores hablando de su experiencia como programadores nos da pautas del valor de atreverse a borrar esas divisiones. Dejarse sorprender por matemáticos filosofando es una experiencia que queda grabada para siempre. Al final, unos y otros saben que no hay resultado mejor balanceado que el que combina la rigurosidad de investigación cuantitativa y la contextualización de la cualitativa.

3. Porque se aprende: Así se trate de herramientas simples o complejas, estrategias o proyectos innovadores, es imposible salir de la Media Party 2013, sin una nueva habilidad desarrollada. Una oportunidad invaluable para periodistas, pero igual de aprovechable por educadores, investigadores y talentos dormidos esperando inspiración. Preguntar, decir “no entiendo nada” y solicitar repetición no solo está permitido, es bienvenido. El aprendizaje entre pares libera de las cohibiciones tradicionales y genera ambientes idóneos para la creatividad.

4. Porque des-digitaliza: Aunque parezca irónico, estos encuentros nos separan de la pantalla del computador y nos permiten intercambios en el mundo real. Conocer quién está detrás de cada avatar y vincular esta imagen con su personalidad ayudan a dar una mejor idea de quienes somos. Un buen pretexto para conocer gente y hacer amigos a la antigua, eso sí, en un ambiente con WiFi abierto para evitar los nervios.

5. Porque se construye con conocimiento libre: Y así se asumen los procesos al interior de la Media Party: Open software, Open technology, Open government, Open science, son los fundamentos que inspiran estas ideas. Ponerlas al alcance de todos es el principio y transformarlas en progreso concreto para nuestra sociedad, el desafío.

 

Datos útiles 

*La inscripción debe hacerse por cada día de asistencia en este link: Registro

*Para saber a que workshop o keynote asistir consultar agenda y la guía temática / guía por tipo de participante

*Las keynotes se transmitirán por streaming y el contenido en general se estará compartiendo vía redes sociales con los hashtags #MediaParty y #hhba

* Web oficial: www.mediaparty.info 

* Las keynotes estarán a cargo de expertos que compartirán sus experiencias en los siguientes medios y Labs: New York Times, Knight Mozilla Open News, Knight Lab, Source fabric, Document Cloud, BBC News, Propublica, Tor, Spiegel Online, Chicago Tribune News, NPR, Open Institute, y Public Laboratory for open technology and science.

*Periodismo contextual: ejemplos de estrategias exitosas

La simplicidad es el logro final.

Después de que uno haya jugado con una cantidad grande de notas,

es la simplicidad que emerge como una recompensa del arte.

Frédéric Chopin

 

Como un intento de responder al cuestionamiento permanente en relación a los desafíos que enfrenta el periodismo, les he propuesto anteriormente el concepto del periodismo contextual. Un estilo que trasciende el simple hecho de transmitir una noticia y se esmera en proveer al lector -como su nombre lo indica- un contexto amplio y claro. Vivir en un mundo con múltiples e infinitas conexiones, impide  hablar hoy de hechos aislados sin citar antecedentes, reacciones y consecuencias. Las nuevas tecnologías ha recreado un entorno con altos niveles de información y las audiencias requieren una evolución en su tratamiento. Sin embargo estas no son simples observaciones o conjeturas, este estilo de periodismo puede identificarse con claridad en proyectos y medios que se han constituido en el último tiempo en ejemplo de adaptación al entorno digital. Sus equipos interdisciplinarios y sus estrategias se han constituido en objeto de estudio, y mi hipótesis aquí, es que su éxito está definido en desarrollar un estilo de periodismo contextual.  A continuación les mostraré algunos ejemplos para apoyar esta afirmación.

The Guardian y más específicamente su sección especializada, ha sido precursor en materia de periodismo de datos, visualizaciones y aplicaciones de noticias, su ágil percepción del incremento en información disponible y su aprovechamiento inmediato los convierte en fuente obligada en evolución periodística. Pero además del despliegue técnico que ha supuesto el uso de los datos y las herramientas derivadas de él, los periodistas de The Guardian hacen énfasis en la narrativa, «storytelling», o simplemente contar una historia. Este término se repite una y otra vez, pero en mi opinión no es otra cosa que proveer contexto, y responder dónde, cuándo, cómo y por qué sucede un hecho, dándole relevancia a este ultimo cuestionamiento, por sobre los otros. El otro acierto ha sido elegir temáticas de interés ciudadano básico por sobre los temas de coyuntura política: gasto del presupuesto público, educación, tendencias en la población, servicios públicos y cultura (situaciones que se relacionan directamente con las vivencias de la audiencia). Una prueba adicional de que el peso esta en el contexto y no en los datos, es que muchas veces no se trata de hechos nuevos, quizás son situaciones ampliamente conocidas pero vistas desde un nuevo punto de vista, muchas veces motivado o fortalecido por las herramientas de análisis de datos. Aunque su visión pueda en ocasiones resultar excesivamente simplista, rescato su estilo directo y educativo, que garantizan una de los objetivos del periodismo contextual: ampliar la comprensión del lector.

ProPublica es ejemplo de lo que hoy puede denominarse, periodismo de calidad. Una iniciativa periodística independiente, que ha ganado más de una veintena de reconocimientos internacionales a pesar de existir exclusivamente en formato online. La selección de sus temáticas, el riguroso tratamiento de investigación y su preocupación por informar a la ciudadanía han sido las bases de su éxito. Entre sus proyectos más destacados está Dollars for doctors que reveló las relaciones entre médicos y compañías farmacéuticas, desarrollando una aplicación que permite a cualquier ciudadano consultar los vínculos entre sus doctores o instituciones prestadoras de salud y dichas empresas. Actualmente Propublica es reconocida como periodismo de investigación, y no cabe duda de que es así, pero además de investigar, da un paso adelante y se preocupa por explicar, utiliza un lenguaje simple y directo, apoyándose en infografías y material interactivo. La selección de sus temáticas revelan un periodismo comprometido y participativo: Criticas a la educación privada, al sistema de salud, análisis del rescate financiero, deuda universitaria y vigilancia son temas sensibles que tocan en mayor o menor medida al ciudadano común. ProPublica investiga, explica y da herramientas para tomar decisiones personales a partir de la información que comunica: «Periodismo de investigación en interés público».

Otro ejemplo a destacar, es el lanzamiento de Fact Tank por parte del Pew Research Center, una consultora de opinión independiente que investiga tendencias demográficas y medios, opinión pública e investigación social en general. Muchos de las actuales tendencias digitales se han identificado gracias a las investigaciones realizadas por el PRC, de modo que he prestado particular atención a su nuevo proyecto. Si bien Fact Tank se autodenomina como una plataforma dedicada a encontrar noticias en los números, su objeto es hacer que la información que resulta de sus investigaciones, sea más comprensible:

We’ll fill the gap between major surveys and reports with shorter pieces using our data to give context to the news of the day. And we’ll scour other data sources, bringing you important insights on politics, religion, technology, media, economics and social trends.

Pareciera entonces que la combinación ideal para el nuevo formato es la investigación rigurosa unida a un estilo de comunicación simple y eficaz, en la que convergen las habilidades de diseñadores gráficos y desarrolladores con la mirada amplia de un periodista o un académico.

Hasta ahora he tratado de identificar características del periodismo contextual en proyectos exitosos, para terminar les hablaré de un proyecto que específicamente trabaja en el desarrollo de este nuevo género de periodismo que sus creadores conciben bajo el concepto -de difícil traducción- the explainer y que persigue un trabajo de calidad capaz de proveer el contexto necesario para seguir los hechos a través de las noticias. Teniendo en cuenta sus características lo he asimilado al periodismo contextual y lo considero un laboratorio de medios en la materia.

«Las personas que mejor explican son directas, concisas y se les entiende con facilidad. Sin embargo el periodismo de investigación rara vez detenta alguno de estos rasgos y por el contrario refleja lo complejo de la vida real»

La cita anterior es parte de un post de The explainer que presenta un material multimedia que nos da el mejor ejemplo de cómo hacer simple lo complejo. «My water’s on fire tonight» es un video que explica los riesgos en materia ambiental y de salud pública de la técnica de fractura hidráulica para la extracción de gas. Este es el resultado:

 

La simplificación muchas veces puede ser exagerada y tal como se ve en el video anterior parecer infantil y provocar no pocas críticas en materia estética. Sin embargo plantear un tema complejo, incitar a su debate y comprensión ciudadana pueden valer el sacrificio. 

Estos son solo algunos ejemplos de millones disponibles, las conferencias TED, la BBC y Slate, son otras referencias donde identificar esta tendencia. Los invito a explorarlos y  sugerir otros si se les ocurren, paralelamente iré trabajando en una serie de recomendaciones para crear este tipo de material. 

+ ejemplos:

BBC Knowledge Explainer DNA

 

How to get out of Guantanamo

htgog

*El periodismo contextual: evolución de la narrativa periodística.

explanation

En febrero de 2013 se publicó un artículo denominado «The rise of contextual journalism» (El surgimiento del periodismo contextual) elaborado por Katherine Fink y Michael Schudson de la Universidad de Columbia [1]. Con base en el análisis de tres periódicos tradicionales (New York Times, Washington Post y Milwaukee Journal Sentinel) los investigadores llegaron a la conclusión que el formato de noticia tradicional y descriptiva había decrecido, en contraste con el ascenso de un estilo más enfocado en la explicación y la interpretación. Aunque aún no ha sido ampliamente reconocido el «periodismo contextual» (PC) representa -a mi juicio- la mejor forma de entender la evolución de la narrativa periodística.

Pese a que la investigación fue realizada para los Estados Unidos, el estudio sugiere elementos teóricos que pueden ser válidos en otros ámbitos y que representan a su vez cambios profundos en la cultura periodística que los autores presentan en cinco categorías:

1. El periodismo se ha vuelto más crítico del poder establecido.

2. Los periodistas han adquirido públicamente un estilo más agresivo.

3. Las noticias han crecido en longitud.

4. Han aumentado las noticias con contenidos no-políticos

5. Las noticias han adquirido un estilo más contextual

Estos cinco cambios si bien reflejan una tendencia norteamericana, coinciden con el impacto que ha supuesto el uso de nuevas tecnologías y la evolución del periodista hacia un sujeto que detenta y ejerce un poder concreto al interior de la sociedad, sin embargo para efectos de la investigación, los autores se concentraron en desarrollar la última de estas tendencias.

El periodismo contextual surge como complemento al periodismo convencional que se concentra en la «descripción de los hechos» y se ocupa de transmitir con exactitud un hecho. Por el contrario la narrativa contextual utiliza una mirada más general y desarrolla ese hecho dentro de espacios y situaciones concretas ampliando la posibilidad de comprensión del lector.

«If the conventional story is a well-cropped, tightly focused shot, the contextual story uses a wide-angle lens. It is often explanatory in nature, sometimes appearing beside conven­tional stories to complement the dry, ‘just the facts’ versions of that day’s events. Sometimes, newspapers label contextual stories ‘news analysis’, as if to head off antici­pated criticism that these stories mix interpretation with facts».

Una noticia contextual tiene una naturaleza explicativa y como tal activa nuevas habilidades en el periodista como interpretar y comunicar con claridad no solo un hecho, si no una idea. A mi juicio, esta tendencia es un reflejo en el ámbito concreto del periodismo, del intento por comprender la complejidad creciente de nuestro entorno. Si así lo vemos, se entiende con claridad el interés creciente en todas las herramientas de visualización y geo-referenciación que lideran la vanguardia en entrenamiento digital. Dicho en palabras simples, ante la complejidad, la audiencia demanda «explicaciones» y los medios deben ser lo suficientemente ágiles para proveerlas. Como una prueba  simple para reforzar este punto les presento los resultados de la búsqueda de la palabra «contexto», en inglés y en español en el Google Books Ngram Viewer (una base de datos que contiene 5.2 millones de libros, publicados entre 1500 y 2008). Los resultados revelan una tendencia ascendente de la palabra «contexto» en ambos idiomas durante el los últimos cien años. (click para ampliar)

contextmarco

 contextomarco

Esta demanda creciente por explicaciones, se ha visto beneficiada además por dos factores. Primero, el uso de herramientas visuales ha reemplazado la función descriptiva de la noticia, ya que las fotografías, los videos, las visualizaciones y los mapas sustituyen y responden en medida los qué, cuándo, cómo y dónde de los hechos, dejando pendiente los Porqués. En segundo lugar ante la posibilidad de cualquier persona de comunicar un hecho a través de internet, los medios han perdido el monopolio de la primicia, llegando a ser sustituidos por un ciudadano cualquiera (como fue en el caso del reciente accidente aéreo, donde el primer parte lo dio un pasajero a través de su cuenta de twitter) o incluso un gobernante (En el reciente incidente con el presidente de Bolivia Evo Morales, la Presidenta argentina informó de su conversación con Morales, otorgando datos concretos, en momentos en que pululaban por los medios informaciones confusas al respecto).

Ante este avance de la tecnología en el reemplazo de tareas que tradicionalmente reposaban en los periodistas, es comprensible que el desplazamiento lógico se haya dado hacia actividades que involucran mayor complejidad, multidisciplinariedad e interpretación. Pero la pregunta subsiguiente sería ¿Estamos trabajando en el desarrollo de estas habilidades? o por el contrario ¿estamos enfocándonos en las herramientas olvidando la teoría?. El periodismo contextual revela una faceta pedagógica del periodista que implica nuevas formas de comprender la audiencia y de comunicar. El trabajo de teorizar al respecto y sugerir estrategias apenas comienza. Termino esta reflexión con una  pregunta: Si la noticia implica el acto de interpretar los hechos, ¿Podemos seguir hablando de «objetividad», de verdad son just the facts?

De la revolución del conocimiento no escapa nada, ni nadie.

En la próxima entrada seguiré trabajando el tema del periodismo contextual, incluyendo ejemplos prácticos, estrategias y diferenciación con el periodismo de investigación, con el que tiende a confundirse.

 [1] De este tema me enteré a través de Jonathan Stray en un artículo que inspiró esta entrada.

*El imperio de «los datos» y el cambio tecnológico. Lecciones de Neil Postman.

medicaladvice«A new medium does not add something; it changes everything»

Neil Postman

En 1998 Neil Postman dio a conocer uno de los más famosos ensayos en materia de cambio tecnológico al mundo. Su aproximación nos advirtió de la transformación que para nuestra sociedad involucraba la introducción de nuevas tecnologías y los riesgos de ese poder transformador.

Han pasado 15 años desde entonces y sus palabras se ratifican en cada «click» de nuestras vidas. Somos seres con entidad construida en la web, con una necesidad permanente de decir quiénes somos, cómo estamos, qué hacemos y a dónde vamos. Cambiaron nuestras formas de comunicarnos, de informarnos de narrar nuestras historias. Se reconfiguró la lógica del mercado laboral y surgieron nuevas profesiones. Nos volvimos seres enteramente visuales, nos enamoró el diseño y la «apariencia» de las cosas pasó a ser una característica de peso en nuestras decisiones. Cambió el periodismo, la investigación científica, la política y cambiaron los niños. Como diría Neruda «nosotros los de entonces, ya no somos los mismos».

Cambiamos radicalmente porque el conocimiento se volvió accesible y con él se potencializaron las posibilidades de todos, despojándole a las instituciones tradicionales el monopolio del saber, igualando oportunidades como nunca antes imaginamos. Hoy quienes creemos y defendemos el conocimiento libre lo hacemos porque sabemos que constituye la herencia noble de la tecnología. Pero Postman nos advirtió que este proceso no era un proceso ingenuo y que al interior de cada tecnología hay implícito «un prejuicio epistemológico, político o social».

Lo sabemos hoy que estalló el escándalo de espionaje estatal de Estados Unidos, y que por primera vez ha recibido en la agenda mediática una repercusión bastante cercana a un debate de grandes magnitudes (que mereció en su momento el tema de Wikileaks). El asunto de la privacidad y el control saltan a primera vista como los bienes públicos a proteger, sin embargo ellos constituyen apenas la punta del iceberg. El tema de que «nuestros datos» sean propiedad -en grandes volúmenes- de corporaciones privadas y  de la inteligencia estatal implica que sean sometidos a análisis estadísticos con asistencia computarizada (Con resultados e intereses muy distintos de las propuestas de «gobierno abierto» donde es la ciudadanía quien se informa y propone, aunque el abuso del método puede producir también desviaciones en estos casos).

Lo que sucede es que este tipo de análisis puede ser con frecuencia determinista, impreciso y peligroso. Como toda técnica positivista descansa sobre la confianza absoluta en los números y en su neutralidad, mitificando el resultado y sustrayéndose de las etapas de control. Mientras escribo esto no puede evitar recordar las criticas epistemológicas al «análisis económico del derecho» de los años noventa, bandera de los neoconservadores y fundamento teórico de las políticas liberales que hoy la historia ha justipreciado.

En dos artículos anteriores hablé de las «falsas promesas del Big data» y les recomendé material relacionado como un intento de abrir el debate y analizar los riesgos para la ciencia, el conocimiento e inclusive los derechos humanos que conlleva mitificar un método tecnológico. Ese esfuerzo – a veces solitario- lo reafirmé en un post de Will Davies titulado «data’s double life» que destaca la forma como el tema de los datos se ha naturalizado, omitiendo analizar sus precondiciones institucionales y metodológicas y que interpreta como una estrategia de quienes no quieren justificar sus actividades científicas:

«On the other hand, data is being icily naturalised, with its institutional and methodological preconditions being marginalised from discussion. Arguably this is a rhetorical ploy on the part of those who simply want to collect more data. The idea of an entirely neutral methodology, which allows data to ‘speak for itself’, will be most appealing for those who don’t wish to justify their scientific activities»

Promover la crítica cultural de la tecnología, evitando el determinismo y la mitificación de la misma son lecciones de Postman que debemos tener presentes para extraer lo mejor de ella y verlo reflejado en una sociedad más justa. Vivir en la era digital implica que seamos capaces de entender cómo la realidad se transforma a través del código y del software y no simplemente dominar las herramientas tecnológicas sin preguntarnos, como nos enseñó Postman:

 ¿Quién se beneficia con el desarrollo de una nueva tecnología?

¿ Qué grupos, qué clase de personas, qué industrias serán favorecidos?

Y, por supuesto, ¿quiénes saldrán perjudicados?

 

 A continuación nuevas recomendaciones  de artículos y libros relacionados con este tema:

 1. Five things we need to know about technological change: El ensayo de Neil Postman que inspira este artículo, hay varias versiones en español que se encuentran fácilmente en Google.

 2. The dictatorship of data: Un artículo en MIT Technology Review que consideré valioso por el análisis histórico que hace del abuso de los datos en temas tan sensibles como la guerra.

 3. «If It’s on the Internet, It Must Be True» : Capítulo introductorio del libro de Anne P. Mintz  «Web of deceit» que ofrece un panorama general sobre cómo la información en internet se corrompe, se dispersa y produce efectos perjudiciales.

 4. Darkpatterns library: Quizás relacionado indirectamente con este tema, pero me atrajo porque muestra cómo  a través del diseño de interfaces se induce al consumidor a realizar acciones en perjuicio propio. Un llamado ético a los diseñadores web.

5. Life in Code and Software: Un libro que explora la relación entre vida, código y software. Un desarrollo a fondo de las ideas de este post visto desde el enfoque desde las Humanidades digitales

Declaración conjunta (ONU y OEA) sobre programas de vigilancia y su impacto en la libertad de expresión

A continuación  reproduzco un documento en el cual el Relator Especial de las Naciones Unidas (ONU) para la Libertad de Opinión y de Expresión y la Relatora Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos de la OEA consideran necesario poner de presente una serie de principios jurídicos internacionales sobre la materia con ocasión de los eventos recientes relacionados con los programas de espionaje estatales. Lo comparto con la idea de que iniciemos el debate y lo incorporemos a nuestras discusiones diarias sobre sociedad y tecnología. El Documento original esta disponible aquí (los resaltados en color son míos) 

Relator Especial de las Naciones Unidas (ONU) para la Protección y Promoción del Derecho a la Libertad de Opinión y de Expresión

Relatora Especial para la Libertad de Expresiónde la Comisión Interamericana de Derechos Humanos de la OEA

 

Declaración conjunta sobre programas de vigilancia y su impacto en la libertad de expresión

 

21 de junio de 2013 – Ante los acontecimientos relacionados con la divulgación de programas secretos de vigilancia destinados a la lucha contra el terrorismo y a la defensa de la seguridad nacional que podrían afectar de manera severa el derecho a la libertad de pensamiento y expresión y el derecho a la intimidad de las personas, el Relator Especial de las Naciones Unidas (ONU) para la Libertad de Opinión y de Expresión y la Relatora Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos de la OEA consideran necesario poner de presente una serie de principios jurídicos internacionales sobre la materia.

En los últimos días se ha conocido el alcance de algunos programas de vigilancia de la Agencia de Seguridad Nacional de los Estados Unidos (NSA – por sus siglas en inglés) sobre metadatos de comunicaciones telefónicas y contenido de informaciones digitales. Según la información disponible, dichos programas estarían amparados en la Ley de Vigilancia de Inteligencia Extranjera (FISA – por sus siglas en inglés) y la Ley Patriota (Patriot Act), contarían con supervisión de una corte independiente que opera de manera reservada y estarían sometidos al control reservado de comités especiales del Congreso de los Estados Unidos. No obstante, como se menciona adelante, la información disponible sobre el alcance de estos programas pone de presente los riesgos que su implementación apareja para el derecho a la intimidad y a la libertad de pensamiento y expresión de las personas, así como la necesidad de revisar la legislación correspondiente y de establecer mayores mecanismos de transparencia y discusión pública de dichas prácticas.

De la misma manera, según la información recogida en informes temáticos y de país de las relatorías especiales, autoridades de otros Estados americanos, amparados por leyes de inteligencia, o al margen de la regulación legal existente, habrían interceptado las comunicaciones de particulares, en muchos casos con criterios o finalidades políticas e, incluso, las habrían difundido masivamente, sin autorización de su titular, en medios de comunicación estatales. Los relatores especiales habrían conocido también de importantes avances en las investigaciones judiciales de algunos de estos casos de espionaje ilegal.

En este contexto, los relatores especiales reiteran su preocupación por la existencia de programas y prácticas de seguridad que puedan generar un perjuicio serio a los derechos a la intimidad y a la libertad de pensamiento y expresión. En consecuencia, instan a las autoridades correspondientes a que revisen la legislación pertinente y modifiquen sus prácticas, con la finalidad de asegurar su adecuación a los principios internacionales en materia de derechos humanos. A efectos de recordar su doctrina en esta área y asistir a los Estados en el cumplimiento de sus obligaciones legales internacionales correspondientes, los relatores especiales decidieron elaborar y difundir la presente Declaración Conjunta que contiene los principios básicos de derecho internacional que sirven para orientar el diseño e implementación de los programas de vigilancia destinados a la lucha contra el terrorismo y a la defensa de la seguridad nacional.

La importancia de garantizar la seguridad nacional con arreglo a estándares internacionales en materia de derechos humanos

1. En sus diversos informes y declaraciones los relatores especiales han indicado, recogiendo las apreciaciones de otros órganos internacionales de derechos humanos, que el terrorismo es una amenaza cierta y significativa contra la protección de los derechos humanos, la democracia, la paz y la seguridad regionales e internacionales. A partir de su obligación de garantizar a las personas el ejercicio libre de sus derechos, los Estados han adoptado medidas de distinta índole para prevenir y contrarrestar el terrorismo, incluidas la formulación de leyes y procedimientos internos para prevenir, investigar, judicializar y sancionar estas actividades, y la negociación de tratados multilaterales sobre cooperación entre los Estados en la lucha contra el terrorismo.

2. Al tomar iniciativas para prevenir y contrarrestar actividades terroristas, los Estados deben cumplir sus obligaciones internacionales, incluidas las asumidas dentro de los marcos del derecho internacional de los derechos humanos y del derecho internacional humanitario. Las relatorías especiales han evaluado en previos informes sobre países y en informes temáticos y declaraciones conjuntas las implicaciones para la libertad de expresión de las iniciativas antiterroristas adoptadas por los Estados. En tal sentido, han subrayado sistemáticamente que el respeto irrestricto del pleno goce de los derechos humanos, o de los derechos que no hayan sido legítimamente suspendidos en situaciones de emergencia, debe ser parte fundamental de cualquier estrategia antiterrorista.

3. En su reciente informe sobre vigilancia de comunicaciones y sus implicancias en el ejercicio de los derechos a la privacidad y libertad de expresión (A/HRC/23/40) el Relator Especial de las Naciones Unidas (ONU) para la Protección y Promoción del Derecho a la Libertad de Opinión y de Expresión reconoce que la protección de la seguridad nacional puede justificar el uso excepcional de vigilancia en las comunicaciones privadas. Sin embargo, es fundamental comprender que dado el carácter dinámico de los avances en Internet y en la tecnología de las comunicaciones en general, este tipo de vigilancia puede constituir un acto particularmente invasivo que afecta seriamente el derecho a la privacidad y la libertad de pensamiento y expresión.

4. En efecto, en los últimos años la tecnología disponible a los Estados para captar y monitorear comunicaciones privadas ha cambiado vertiginosamente. Internet ha creado oportunidades sin precedentes para la libre expresión, comunicación, búsqueda, posesión e intercambio de información. Con ello, se ha facilitado el desarrollo de grandes cantidades de datos acerca de las personas, que incluye, entre otros, su ubicación, actividades en línea, y con quiénes se comunican. Toda esta información, manejada en archivos, accesible y sistematizable, puede ser altamente reveladora. Por ello, su uso por parte de las agencias policiales y de seguridad, en programas de vigilancia destinados a la lucha contra el terrorismo y a la defensa de la seguridad nacional, se ha incrementado sin regulación adecuada en la mayoría de los Estados en nuestra región.

5. Resulta preocupante que la legislación en materia de inteligencia y seguridad haya permanecido inadecuada frente a los desarrollos de las nuevas tecnologías en la era digital. Preocupan de manera especial los efectos intimidatorios que el acceso indiscriminado a datos sobre la comunicación de las personas pueda generar sobre la libre expresión del pensamiento, búsqueda y difusión de información en los países de la región.

6. Existe una necesidad urgente de que los Estados revisen su legislación para establecer los límites a la potestad para vigilar las comunicaciones privadas, su necesidad y proporcionalidad, de conformidad con los derechos de las personas y los principios de derecho internacional que han sido recogidos, entre otros, en el informe sobre vigilancia de comunicaciones y sus implicancias en el ejercicio de los derechos a la privacidad y libertad de expresión (A/HRC/23/40) del Relator Especial de las Naciones Unidas para la Protección y Promoción del Derecho a la Libertad de Opinión y de Expresión y el informe sobre Terrorismo y Derechos Humanos de la Comisión Interamericana de Derechos Humanos (OEA/Ser.L/V/ll.116 Doc. 5 rev. 1 corr).

La necesidad de limitar los programas de vigilancia

7. Los derechos a la privacidad y a la libre circulación del pensamiento e información se encuentran protegidos por el derecho internacional de los derechos humanos. La Declaración Universal de los Derechos Humanos, el Pacto Internacional de los Derechos Civiles y Políticos, la Convención Americana sobre Derechos Humanos y la Declaración Americana de Derechos y Deberes del Hombre reconocen de manera expresa el derecho de toda persona, sin discriminación, a manifestar libremente su pensamiento y a buscar y recibir informaciones de toda índole. Asimismo, prohíben injerencias arbitrarias o abusivas en la vida privada, incluidas las comunicaciones, y a obtener la protección del Estado contra ese tipo de injerencias.

8. De conformidad con lo anterior, los Estados deben garantizar que la intervención, recolección y uso de información personal, incluidas todas las limitaciones al derecho de la persona afectada a acceder a información sobre las mismas, estén claramente autorizadas por la ley a fin de proteger a la persona contra interferencias arbitrarias o abusivas en sus intereses privados. La ley deberá establecer límites respecto a la naturaleza, alcance y duración de este tipo de medidas, las razones para ordenarlas, las autoridades competentes para autorizar, ejecutar y supervisarlas y los mecanismos legales para su impugnación.

9. Dada la importancia del ejercicio de estos derechos para el sistema democrático, la ley debe autorizar el acceso a las comunicaciones y a datos personales sólo en las circunstancias más excepcionales definidas en la legislación. Cuando se invoque la seguridad nacional como razón para vigilar la correspondencia y los datos personales, la ley debe especificar claramente los criterios que deben aplicarse para determinar los casos en los cuales este tipo de limitaciones resulta legítimo. Su aplicación deberá autorizarse únicamente cuando exista un riesgo cierto respecto de los intereses protegidos, y cuando ese daño sea superior al interés general de la sociedad en función de mantener el derecho a la privacidad y a la libre expresión del pensamiento y circulación de información. La entrega de esta información debe ser monitoreada por un organismo de control independiente y contar con garantías suficientes de debido proceso y supervisión judicial, dentro de las limitaciones permisibles en una sociedad democrática.

10. La vigilancia de las comunicaciones y las injerencias a la privacidad que excedan lo estipulado en la ley, que se orienten a finalidades distintas a las autorizadas por ésta o las que se realicen de manera clandestina deben ser drásticamente sancionadas. Esta injerencia ilegítima incluye aquellas realizada por motivos políticos contra periodistas y medios de comunicación independientes.

11. Las empresas que proveen servicios de comunicaciones a través de Internet, publicidad u otros servicios relacionados deben esforzarse para asegurar que se respetan los derechos de sus clientes a la protección de sus datos y de usar Internet sin interferencias arbitrarias. Se alienta a estas empresas para que trabajen en forma conjunta para resistir intentos de ejecutar programas de vigilancia masiva en oposición a los principios aquí establecidos.

 Deberes de publicidad y transparencia

12. Toda persona tiene derecho a acceder a información bajo el control del Estado. Este derecho incluye la información que se relaciona con la seguridad nacional, salvo las precisas excepciones que establezca la ley, siempre que estas resulten necesarias en una sociedad democrática. Las leyes deben asegurar que el público pueda acceder a información sobre los programas de vigilancia de comunicaciones privadas, su alcance y los controles existentes para garantizar que no puedan ser usados de manera arbitraria. En consecuencia, los Estados deben difundir, por lo menos, información relativa al marco regulatorio de los programas de vigilancia; los órganos encargados para implementar y supervisar dichos programas; los procedimientos de autorización, de selección de objetivos y de manejo de datos, así como información sobre el uso de estas técnicas, incluidos datos agregados sobre su alcance. En todo caso, los Estados deben establecer mecanismos de control independientes capaces de asegurar transparencia y rendición de cuentas sobre estos programas.

13. El Estado debe permitir a los proveedores de servicios informar a sus clientes acerca de los procedimientos que ellos implementan en respuesta a solicitudes de vigilancia del Estado, y aportar cuando menos, información agregada sobre el número y el alcance de las solicitudes que reciben. En este contexto, los Estados deben hacer esfuerzos por elevar la conciencia de las personas sobre sus derechos y el funcionamiento de las nuevas tecnologías de comunicaciones de manera que puedan determinar, manejar, mitigar y adoptar decisiones informadas respecto de su uso.

14. El Estado tiene la obligación de divulgar ampliamente la información sobre programas ilegales de vigilancia de comunicaciones privadas. Esta obligación debe ser satisfecha sin perjuicio del derecho a la información personal de quienes habrían sido afectados. En todo caso, los Estados deben adelantar investigaciones exhaustivas para identificar y sancionar a los responsables de este tipo de prácticas e informar oportunamente a quienes han podido ser víctima de las mismas.

 Protección frente a sanciones ulteriores por la divulgación de información reservada

15. Bajo ninguna circunstancia, los periodistas, integrantes de medios de comunicación o miembros de la sociedad civil que tengan acceso y difundan información reservada sobre este tipo de programas de vigilancia, por considerarla de interés público, pueden ser sometidas a sanciones ulteriores. En igual sentido, las fuentes confidenciales y materiales relacionadas con la divulgación de información reservada deben ser protegidas por la ley. Los mecanismos periodísticos de autorregulación han contribuido significativamente a desarrollar buenas prácticas sobre cómo abordar y comunicar temas complejos y sensibles. La responsabilidad periodística es especialmente necesaria cuando se reporta información en materia de terrorismo y seguridad nacional. Los códigos de ética periodísticos resultan de utilidad para el logro de este propósito.

16. Como ya lo han manifestado de manera reiterada los relatores especiales, una persona vinculada al Estado, que teniendo la obligación legal de mantener confidencialidad sobre cierta información, se limita a divulgar al público aquella que razonablemente considere que evidencia la comisión de violaciones de derechos humanos («whistleblowers»), no debe ser objeto de sanciones legales, administrativas o laborales siempre que haya actuado de buena fe, de conformidad con los estándares internacionales sobre la materia.

17. Cualquier intento de imponer sanciones ulteriores contra quienes revelan información reservada debe fundamentarse en leyes previamente establecidas, aplicadas por órganos imparciales e independientes, con garantías plenas de debido proceso, incluyendo el derecho de recurrir el fallo. La imposición de sanciones penales debe ser excepcional, sujeta a límites estrictos de necesidad y proporcionalidad.

*10 artículos para pensar críticamente la irrupción del «Big data»

El análisis de los datos ha abierto un horizonte de posibilidades infinitas y su consideración sensata ha sido un tema recurrente en este blog. Promover el análisis tradicional, despojarlo de su velo de neutralidad y desarrollar parámetros éticos es un objetivo necesario.

Un uso adecuado de los datos educa a la ciudadanía y la integra participativamente en la construcción de sus propias sociedades, sin embargo el uso que de ellos puedan hacer las empresas o los aparatos estatales exige que como usuarios estemos informados. Y esto implica conocer tanto el contenido que nos ofrece (y que ofrecemos a la web) como la forma en que este se produce y se utiliza.

Mi propuesta es entonces que así como nos preocupamos por impulsar iniciativas de gobierno abierto, recopilar bases de datos y educar en el análisis de estos mediante útiles herramientas, mantengamos las alertas encendidas para encauzarlas hacia intereses loables y a través de métodos confiables.

Como contribución al debate y en mi faceta de curadora de contenidos, les comparto la selección de 10 artículos (algunos en vídeo)  sobre el tema, que seleccioné en los últimos tres meses, todos ellos abarcan distintas perspectivas que invitan a pensar dos veces en este nuevo fenómeno tecnológico-cultural.

El material esta todo en inglés pero más abajo adjunto un índice en español como guía; para presentarles estos artículos y hacerlo de forma interactiva he utilizado la herramienta Timeline JS, para acceder a ella click en la siguiente imagen:

(click in the image to access the articles)

 timeline1

 10 artículos para pensar críticamente la irrupción del «Big data»

1. Privacidad y publicidad en el contexto del «Big data»: Transcripción de una charla de Danah Boyd donde propone y desarrolla las 5 cosas que toda persona que trabaje con datos debe tener claro.

2. ¿Y si el «Big data» fuera una persona?: Presentación de Genevieve Bell en la que propone una analogía con los seres humanos para demostrar los posibles sesgos de los datos.

3. Cuidado con los grandes errores del «Big Data» : un artículo de Nassim Taleb en Wired sobre los posibles errores que se pueden cometer en materia estadística al analizar grandes cantidades de información.

4. Los sesgos escondidos del «Big data»: El video de Kate Crawford citado en mi post anterior pero de gran valor introductorio a la discusión.

5. Deslumbrados por el «Big data»: Un artículo de Gary Marcus para el New Yorker que aborda el impacto de esta técnica en la industria y sus dudas al respecto.

6. Otra entrega de «data skepticism»:  Columna de Mike Loukides en O’reilly radar sobre el nuevo evento  de escépticos frente a los datos que se empezó a realizar en New York en mayo pasado. Una invitación a seguirle los rastros a este grupo The NYC data skeptics meetup.

7. «El «Big data» necesita «thick data»: Un enfoque etnográfico del blog Ethnography matters que aborda los principales problemas y propone soluciones concretas para el trabajo con datos.

8. El «Big data» necesita una teoría que lo acompañe: Una opinión de Geoffrey west para Scientific American desde el enfoque de la complejidad. «No sabemos qué clase de datos necesitamos, ni cuántos y menos aún qué cuestionamientos nos deberíamos estar haciendo».

9. «Gobernando los algoritmos» : página web de un encuentro celebrado en mayo pasado en el que se discutió el papel de «los algoritmos» desde un punto de vista académico y de profundidad. En ella hay links a varios papers que recomiendo a ojo cerrado.  

10. «Respetando los datos»: Una reseña de Erhardt Graeff en el MIT center for civic media sobre su participación en el Eyeo Festival y las tensiones y contradicciones que percibió en las conferencias sobre el tratamiento de los datos.

 

Si alguno está interesado en profundizar u obtener material relacionado, indíquenlo por favor en los comentarios y seguiré robusteciendo la lista. 

*Las falsas promesas del «Big Data»

Imagen1

Los datos revolucionaron la manera en que entendemos, proyectamos y asumimos nuestro mundo. La probabilidad de analizar grandes cantidades de información mediante software especializado ha instalado la sensación de que las cuestiones más complejas son posibles de abordar y una ola de solucionismo inunda de optimismo hasta el mas recóndito rincón.

Presos de un sistema que no diferencia la publicidad del análisis es fácil adherir con entusiasmo a este tipo de métodos milagrosos sin advertir los riesgos que implican. Este ejercicio escéptico -como casi todos los que realizo en este espacio- está lejos de denostar las nuevas tecnologías y por el contrario aboga por un uso racional que potencialice sus beneficios.

La idea es compartir y traer al debate  distintos artículos publicados en los últimos meses que presentan el panorama actual del Big Data, sus debilidades y la liviandad con la que se aplica en muchos casos.

Kate Crawford es una investigadora y académica australiana que en los últimos meses ha protagonizado la contracorriente en materia de investigación a partir de datos (analizar cantidades masivas de información para detectar patrones, tendencias y hacer predicciones respecto a situaciones complejas).

Sus publicaciones han aparecido en el New York Times, Foreign Policy, Harvard Business review y su participación en Strata Conference 2013 fue un éxito en las redes sociales. A pesar de que posee una sólida carrera en investigación de las prácticas sociales, políticas y culturales que conllevan las nuevas tecnologías, su voz resalta hoy como ninguna en cuanto a las falsas promesas del «Big data».

Empezaré con algunas ideas extraídas del artículo de Crawford publicado el pasado 9 de mayo en Foreign Policy bajo el título Think Again: Big Data. La premisa es responder a los «fundamentalistas» del Big Data, que ocupan sin lugar a dudas los primeros lugares en la escena mundial tan proclive al hipnotismo tecnológico y positivista. Mediante sucesivos ejemplos y argumentos exhibe las grandes debilidades de este método, su fragilidad ética y los riesgos para las conquistas sociales alcanzadas si no se establecen con urgencia parámetros éticos y técnicos. 

Lo primero es establecer que los números por sí  solos -como afirman los fundamentalistas segun Crawford- y los sets de datos, no importa cuán grandes sean, siguen siendo objetos que dependen del trabajo humano. El uso de la tecnología no inmuniza la existencia de sesgos, fallas y falsos supuestos. De modo que aun en relación con el Big Data existe la probabilidad de estos errores y por eso es falsa la promesa de que a mayor cantidad de datos , mayor calidad en los mismos.

Ejemplos: Cuando se realizan análisis de sentimientos en las redes sociales debe tenerse en cuenta que existe una alta probabilidad de que no refleje la realidad por varias razones: el tipo de población que usa esa red social, existencia de cuentas falsas y los errores propios del algoritmo al momento de interpretar determinada expresión.

Los sitios agregadores de noticias, que ofrecen un contenido personalizado de acuerdo a las elecciones del pasado, utilizan un algoritmo que tiene sus propios sesgos, por ejemplo asumir que frecuencia equivale a importancia o que lo más popular que se comparte en las redes sociales es importante para un individuo en particular.

Ed Felten y su equipo de la Universidad de Princeton investigan hoy esos errores en los algoritmos, especialmente aquellos en los que el gobierno de los Estados Unidos se fundamenta pare evaluar estatus de los individuos como la famosa lista de no-fly (no viajar) que el FBI y la Agencia de Seguridad de Transporte recaudan de múltiples fuentes accesibles al gobierno y que determinan políticas de seguridad en los aeropuertos.

Aunque no cabe duda que el análisis de datos relacionados con el funcionamiento de las ciudades puede otorgar beneficios, existen graves problemas de relacionadas con el exceso o la subestimación en la representación de ciertos sectores de la población. Un ejemplo de esta situación es el análisis de la aplicación Boston’s street Bump  a través de la cual se monitorea el estado de las calles, mediante los reportes realizados por los ciudadanos a través de sus smartphones. El riesgo es que si la información proviene únicamente de esta fuente lo más probable es que los datos representen las zonas de mayor poder adquisitivo (la misma de los propietarios de los smartphones) en perjuicio de otras zonas con menores ingresos que impiden acceder a los medios para reportar. Si una decisión de política pública se tomara en base a estos datos sin considerar los posibles sesgos, estaríamos sin duda frente a una situación de injusticia social.

El mismo análisis es válido para las iniciativas de Gobierno Abierto: la existencia de más datos, no significa necesariamente que mejorarán los índices de transparencia y responsabilidad del gobierno a menos que se establezcan mecanismos de participación e intercambio entre los ciudadanos y sus instituciones y un adecuado criterio en la interpretación de los datos.

Las organizaciones de derechos humanos también han acudido al Big Data para entender conflictos y crisis y aquí también es preciso preguntarse sobre la calidad de los datos y del análisis. En la actualidad el CHRS de la Universidad Carnegie Mellon desarrolla una investigación sobre el efecto real en la protección de los derechos humanos que se realiza a través de las redes sociales y el análisis de datos.

De acuerdo a Jay D. Aronson, el director del proyecto, existen serias dudas sobre el uso de los datos y las responsabilidades de los académicos y las organizaciones de derecho humanos con sus fuentes. En muchos casos no está claro si la protección y seguridad de las personas se mejora o se amenaza con la aplicación de estas nuevas tecnologías. La idea entonces es ayudar a mediar estas tensiones y aumentar el potencial de las nuevas tecnologías para promover los derechos humanos a través de un riguroso análisis académico.

Otros ejemplos de fallas pueden apreciarse en materia de investigación médica, recursos humanos, privacidad, anonimato de los datos e incluso en aspectos relacionados con la seguridad pública. Los riesgos incluyen discriminación de grupos sociales y el consecuente trato diferencial; uso indebido de información privada y estigmatización racial. Para profundizar sobre ellos recomiendo consultar el artículo citado.

Planteado el escenario de  vulnerabilidad del método, el paso siguiente sería proporcionar soluciones o formas de trabajar con los datos que tuvieran en cuenta todos los factores. Este será el tema de la próxima entrada, por ahora baste decir que la integración de grupos interdisciplinarios (que combinan profesionales de las ciencias sociales con las duras) es la respuesta, así como el uso complementario con los métodos tradicionales.  

Para los que quieran seguir planteándose preguntas sobre el tema les incluyo el video de la conferencia de Crawford y el link al paper «Governing Algorithms: A provocation piece» .

*Luchar contra el cáncer de mama sin ser Angelina

timecover

Angelina movió el mundo. En su tiempo Arquímedes nunca hubiera adivinado que en nuestros días el poder y la belleza movilizarían mucho más que cualquier palanca. Ningún medio dejo de registrarlo, desde el New York Times que publicó su comunicación titulada «my medical choice» hasta el más ínfimo de los medios registró la historia de la mastectomía doble preventiva de Jolie. Las redes sociales dieron lo suyo y las réplicas inundaron la agenda del mes.

No deja de ser una ironía, de cáncer de mama se mueren mujeres todos los días, pero la admiración y la atención solo surge masivamente cuando lo hace Angelina. El resultado de esa ambivalente y cruda relación entre belleza y salud que tanto ha perjudicado la construcción de la subjetividad femenina.

Pero las consecuencias del «efecto Angelina» están por verse, especialmente en Estados Unidos donde ya se ha detectado una tendencia en aumento respecto a la práctica de este procedimiento. Sin embargo, la comunidad médica ha manifestado que las mutaciones de los genes del cáncer de seno (BRCA) están presentes en menos del 1 % de las mujeres de Estados Unidos. Lo que impide inferir que el caso de Angelina sea representativo de la población en general. Sin embargo la cobertura noticiosa y la lógica de nuestro sistema auguran que esta «sobreestimación» de los riesgos reales del cáncer continuará su curso en alza. 

Aunque este «efecto» represente un  riesgo en la manera de abordar la enfermedad e imponga medidas urgentes, lo realmente descorazonador es que además de pertenecer al 1 % de la población con este gen defectuoso, Angelina a su vez hace parte de esa exclusiva minoría de la población mundial que pude acceder a este diagnóstico preventivo.

bea

Beatriz Busaniche es una activista argentina dedicada a la promoción y defensa del Software libre que desde la Fundación Vía Libre realiza una labor invaluable y comprometida con la difusión del conocimiento y el desarrollo sustentable en tiempos de las tecnologías de la información. 

Educar, defender y advertir al ciudadano de los desafíos de la vida moderna desde una visión solidaria forman parte de sus objetivos. El día del anuncio de Angelina, Beatriz difundió a través de su cuenta de twitter dos vídeos de la ACLU (American Civil Liberties Union) que explican el alcance y la gravedad del patentamiento de los genes humanos.

El asunto es que, estrella de cine por medio, el debate está planteado y justamente en momentos en que se espera el fallo de la Corte Suprema de Estados Unidos respecto al caso Association of Molecular Pathology vs. Myriad Genetics, que definirá la legalidad o no, del patentamiento de genes humanos. Para mayores detalles del caso consultar «Audiencias del caso Association for Molecular Pathology vs Myriad Genetics».

Joseph Stiglitz, premio Nobel de Economía 2001, se ocupo del tema en su columna en Slate y enfatizó en las graves fallas de los sistemas de patentamiento, que en vez de estimular el proceso de investigación y desarrollo, lo inhibe. 

«That is why we do not allow patents for basic insights in mathematics. And it is why research shows that patenting genes actually reduces the production of new knowledge about genes: The most important input in the production of new knowledge is priorknowledge, to which patents inhibit access»

También recordó que han sido los Estados Unidos de América y los países desarrollados quienes han recreado este tipo de sistema de propiedad intelectual en perjuicio de los países del tercer mundo: impidiendo el acceso a medicamentos genéricos y la transferencia del conocimiento científico necesarios para el desarrollo.

Todo esto para decir que vivimos en el absurdo y es la frivolidad la que nos hace reflexionar sobre lo esencial. Quizás para darnos cuenta que en la vida real la lucha contra el cáncer se hace en silencio, muchas veces en soledad y casi siempre en la pobreza. 

(Nota: Esta entrada puede leerse tambien en formato Storify: *Luchar contra el cáncer de mama sin ser Angelina)

*8 Recursos para elegir el gráfico apropiado en Visualización de Datos

Una vez que se ha hecho el trabajo de corrobar, filtrar y preparar los datos, es momento de proceder con la etapa del diseño de la información, mas concretamente la elaboración de la visualización. Este momento exige una decisión critica:  la elección del tipo de gráfico. Para ello he preparado esta entrada con una serie de recursos útiles relacionados.

1. La información visual bien diseñada puede ampliar las posibilidades de comprensión, sin embargo la manera cómo se procesan las imágenes tienen limitaciones que vale tener en cuenta para todos los casos. El libro The Back of the napkin de Dan Roam, sugiere seis formas en que la gente «ve» las cosas:

* Viendo el panorama general (the hole picture)

* Viendo objetos

* Viendo cantidades

* Viendo posiciones en el espacio

* Viendo posiciones en el tiempo

* Viendo procesos causa-efecto.

Con esto pretendo arrojar una primera idea sobre lo que queremos transmitir con nuestro gráfico. 

2.  Lo mas importante es determinar qué y cuántas variables queremos comparar y las relaciones entre ellas. Estas relaciones pueden ser de desviación, distribución, correlación, cambios a lo largo del tiempo, ranking, etc. Un documento que desarrolla con detalle las variables y los gráficos correspondientes es «Designing effective tables and graphs» de Stephen Few, quien es a su vez, el autor de la siguiente matriz (click para agrandar)

Graphselectionmatrix1

3. Otra herramienta que ayuda a determinar el papel de las variables es la matriz de Andrew Abela, que se encuentra en español gracias a Extreme Presentation 

quegraficoelegir

4. El tema de la elección del gráfico impone también la selección de un camino en materia de visualización, la de los tradicionales gráficos de estadísticas o los de visualizaciones que han surgido a partir de los desarrollos del software. Para comprender este paralelo,  les comparto esta presentación de Andrew Gelman, del departamento de Estadística  y de Ciencia política de la universidad de Columbia, que concedió en el marco del New York data Visualization Meetup 2013. A través de este doble planteamiento da excelentes consejos y ejemplos para cumplir nuestro objetivo.

choicesinstatistical graphics

5. Otra herramienta que ya es todo un clásico es la tabla periódica de los métodos de visualización, si bien su uso es mas genérico, permite observar todas las posibilidades existentes. La siguiente versión es interactiva y al ubicarse sobre cada ‘elemento’ muestra un ejemplo del mismo  (click en la imagen)

tablaperiodica

6.  Dentro de los recursos del sitio web de la Universidad de Carolina del Norte se ofrece otra matriz al estilo de preguntas y respuestas, lo que facilita la selección de opciones desde el punto de vista de la naturaleza de la variable independiente. 

tiposdegraficos

7. Consejos mas detallados sobre el tipo de gráfico, los extraje del libro de William S. Cleveland «The elements of graphing data» y específicamente de su «Lista de principios para la construcción de gráficos».

8. Finalmente les comparto el link del paper «Selecting the Best Graph Based on Data, Tasks, and User Roles»,que provee muy buenas estrategias para superar esta etapa del proceso de diseño de la información.

Como siempre digo, esta es solo una parte del complejo de proceso de visualizar la información, desde este blog se trabaja el enfoque de la visualización como herramienta para abordar la complejidad, mediante el riguroso examen de los hechos y su procesamiento para mejorar nuestra comprensión de la realidad. 

Mas entradas sobre Visualización 

*A listing of the principles of graph construction by William S. Cleveland

From his book «The elements of graphing data»

«When a graph is constructed, quantitative and categorical information is encoded, chiefly through position, size, symbols and color. Whean a person looks at a graph, this information is visually decoded by the person’s visual system. A graphical method is successful only if the decoding process is effective. No matter how clever and how technologically impressive the enconding, it is a failure if the decoding process is a failure».

William S. Cleveland

(click to enlarge)

generalstrategy1Clear vision Clear understandingScale

 

Mas entradas sobre Visualización 

*La diferencia entre un Curador y un Agregador de Contenidos

«La curación de contenidos es una habilidad que se convirtió en tarea»

David Carr 

El surgimiento de nuevas profesiones en la era digital tiene siempre su lado discutible y cuestiones relativas a su denominación o validez son objeto de resistencia por quienes hasta entonces han desarrollado las mismas actividades pero bajo entornos no digitalizados.

Las nuevas profesiones (community manager, content curator, etc..) se originan en el momento en que personas con habilidades tradicionales se forman en entornos digitales y le añaden ese valor agregado a su trabajo intelectual. La naturaleza de las herramientas web es simplificar tareas, por eso es natural que alguien que las domine, obtenga al menos mayor eficacia en los resultados, más aún si se tiene en cuenta el volumen de información disponible. Por otro lado estas nuevas profesiones son un reflejo de la simbiosis que debe operar entre las ciencias humanas y las ciencias duras, educando individuos que operen como eslabones de los dos mundos y cierren las brechas digitales existentes.

Hace un tiempo, publiqué en este blog una entrada sobre las habilidades necesarias para el futuro de acuerdo a la investigación liderada por Henry Jenkins, pasado el tiempo muchas de esas habilidades han evolucionado al punto de convertirse en actividades independientes y modificar  lineamientos en el mercado laboral.

La curación de contenidos no ha sido ajena a este debate, el solo hecho de su denominación ha sido ampliamente discutido, pero paralelamente ha ido alcanzando un estatus destacado, gracias a su aporte en la agregación, estructuración, contextualización y organización de la información. Muchos curadores se convierten tarde o temprano en “creadores de contenido” debido al proceso natural que se sucede al exponerse a un gran volumen de información desde distintos enfoques y recibir inspiración constante de estas fuentes.

Los principios detrás de la curación de contenidos son varios: el exceso de información y la necesidad de sistematizarla, el deterioro del mito de la originalidad y la existencia de personajes e historias que merecen especial atención. Estos principios convergen en la naturaleza misma de la web: una red de personas que permanentemente intercambian ideas y estas a su vez se transforman en objetos simbólicos de esta interacción.

Como lo he sostenido innumerables veces, todos somos curadores de nuestra propia estructura mental, son procesos naturales (selección, categorización, relevamiento) que se suceden sin darnos cuenta y que algunos aprovechan mejor que otros. Y es en este aprovechamiento donde la curación cobra valor.

Siempre que me preguntan qué puede aportar un curador de contenidos además de la simple agregación, respondo «lo mismo que el guía de un museo», me explico: no es lo mismo ir solo y exponerse únicamente a la apreciación estética de la obra, que escuchar detalles adicionales sobre el contexto en que la obra fue creada.

eugene-roch-el-poeta

El anterior cuadro de Van Gogh, se denomina Eugège Roch (El poeta) y es difícil negar su belleza, sin embargo la experiencia estética se profundiza si uno descubre el afecto que se anida detrás de esta pintura:

“Quisiera hacer el retrato de un amigo artista que sueña grandes sueños, que trabaja como canta el ruiseñor, porque su naturaleza es así.Este hombre será rubio.

Yo quisiera poner en el cuadro mi aprecio, el amor que siento por él .

Lo pintaré, pues, tal cual, tan fielmente como pueda, para empezar. Pero el cuadro así no está acabado.

Para terminarlo, me vuelvo entonces un colorista arbitrario.Exagero el rubio de la cabellera, llego a los tonos anaranjados, a los cromos, al limón pálido.

Detrás de la cabeza en lugar de pintar el muro trivial del mezquino departamento, pinto el infinito, hago un simple fondo del azul más rico, más intenso que pueda confeccionar, y por esta sencilla combinación, la cabeza rubia iluminada sobre este fondo azul rico obtiene un efecto misterioso como la estrella en el azul profundo […]

¡Ah!… mi querido hermano…

y las buenas personas no verán en esta exageración más que la caricatura”

Vincent Van Gogh

 (citado por Alain de Botton en el Arte de Viajar)

 Pese a correr el riesgo abrir un debate sobre apreciación del arte, es cierto que hay objetos que tienen belleza apreciable per se y otros cuyo valor es relacional, definido por el contexto, las condiciones de su creación o su aporte tecnológico (herramientas de la edad de piedra por ejemplo). Del mismo modo un curador de contenidos, enriquece un tema (en el ámbito académico,periodístico o científico) y lo sustrae de la observación aislada mediante vínculos insospechados. Cuando un curador realiza conexiones entre temas disimiles a primera vista pero que comparten fundamentos comunes no hace otra cosa que ejercer su visión universal del conocimiento, donde es posible encontrar el germen de la creatividad.

Así las cosas, curar contenidos requiere contar con una sólida cultura general, una formación multidisciplinaria y un entrenamiento en herramientas digitales. El curador investiga, contextualiza, vincula y crea, ahí radica su diferencia con un simple agregador de contenidos.

Mas artículos sobre Curación de Contenidos