*Consejos para realizar investigaciones o visualizaciones a partir de series de datos o datasets.

“But we don’t report on data itself.
We report on reality, and we must assess
how accurate a model of reality the data is”
Jacob Harris

Mucho se habla de los “datos” como verdades absolutas y poco de ellos como información susceptible de sesgos como cualquier otra. A partir de ellos se erigen complejas investigaciones periodísticas, de mercado y académicas que a su vez impactan en la opinión pública en diferentes niveles.  Sin embargo vale la pena preguntarse si esos datos han sido objeto de un cuidadoso proceso de control que garantice la calidad del producto final. Este post va en dos direcciones, por un lado como una invitación a la mirada crítica de los datos y no asumirlos como verdades incontrovertibles, y por otro como una guía para trabajar con ellos y hacerlos capaces de enfrentar lo anterior. A continuación algunos consejos generales:

objetivo11. DETERMINA EL OBJETIVO. Hay dos formas de encontrarse con los datos. La más frecuente es trabajar en un tema y tener que “buscar los datos” que lo respalden, es decir la forma tradicional de investigar. La segunda es la que devino con la acumulación de información que produjo la web y que nos enfrenta a enormes datasets susceptibles de ser analizados. La diferencia es que en el primer caso, el objetivo de investigación es por lo general bastante claro, una suposición que requiere ser constatada o refutada. En el segundo caso, la operación se invierte y muchas veces se trata de leer los datos y buscar en ellos la historia: lo que dicen o pueden decir sobre un tema u otro. Este cambio de sentido, ocasiona -en mi opinión- una de las fallas más frecuentes: la falta de claridad en el objetivo. Como es lógico este paso determina el proceso, sin embargo es frecuente encontrarse con trabajos, informes o noticias que presentan bases de datos, visualizaciones o conclusiones donde es difícil comprender qué pretendía el autor, o lo que es peor qué utilidad práctica posee. Cuando un dataset ofrezca muchas posibilidades, elige una, hay cosas importantes pero entre todas ellas hay una más importante. Prioriza.

interpreta

2. INTERPRETA LOS DATOS.Los datasets por lo general viene acompañados de una ficha que ayuda a su comprensión, data dictionaries, codebook o ficha simplemente son algunos de los nombres que se le asignan. En ella se encuentra información muy valiosa respecto a la significación de los datos, sus relaciones y la forma como fueron recolectados. En otras palabras es una descripción necesaria de los datos que abren la puerta a su interpretación y constituye una gran herramienta para empezar una investigación. Aprovechar su información garantiza que se cumplan los objetivos de la recolección de los datos y contribuyen a la formación del criterio.

variables3. COMPRENDE LAS VARIABLES.Un dataset no es otra cosa que una serie de observaciones (variables) sobre ciertas unidades (individuos por ejemplo) que pueden ser expresadas de modo cualitativo o cuantitativo. De modo que su entendimiento, implica la comprensión de tales variables y de su significado. Toda exploración complementaria que podamos hacer respecto a estas, ampliará las posibilidades de los datos y sobre todo de su potencialidad. Cumplida esta tarea, es muy probable que sea mucho más fácil poder trazar relaciones entre ellas, lo que en estadística se denomina “correlación” entre variables y en donde radica la riqueza de los datos: las inferencias que puedan realizarse a partir de ellas, para comprobar o refutar una sospecha. A mayor número de variables mas complejidad del dataset, por eso es común “simplificarlo”, a través de la selección de determinadas variables.

metadatos

4. NO OLVIDES EVALUAR LOS METADATOS. Abordar los datos, requiere un control absoluto sobre la forma como esos datos fueron obtenidos. Es decir, dónde, cómo, cuando, por qué y por quién fueron recolectados; es un deber del analista y sobre todo una herrramienta fundamental a la hora de evaluar los posibles sesgos y fallas de la información. Sopesarlos oportunamente, permite corregir errores por otras fuentes y reflejar la realidad con mayor precisión. Los datos no son perfectos y es necesario hacer una análisis general de la situación, por ejemplo: ¿es posible que haya duplicación de datos?, ¿cuáles fueron las condiciones de la recolección de datos?. Cuando los datos reflejan un patrón anormal, es preciso hacer un zoom analítico, y evaluar con detalle, porque seguramente detrás habrá una historia que contar.

Como caso de análisis les recomiendo el artículo Working with Wikileaks de Jacob Harris, arquitecto de información del New York Times y que relata con detalle el proceso de análisis de los datos que fundamentaron las siguientes notas relacionadas con la violencia sectaria durante la ocupación americana en Baghdad: 

Mix of Trust and Despair Helped Turn Tide in Iraq y la visualizacióA Deadly DayIn Baghdad.

Además les comparto el link de un libro para descargar (pdf completo) de Darrell Huff & Irving Geis que es un clásico en el medio y merece la pena ser leído por todos aquellos que trabajen en el delicado oficio de formar la opinión pública:

“Cómo mentir con estadísticas”

*Herramientas para cotejar información en redes sociales o el arte del “fact checking”

Hace unos días escribí sobre la repercusión de la liviandad en el manejo de datos en las redes sociales con ocasión de los atentados de Boston, hoy escuché que una corresponsal del ABC de España,  Ludmila Vinogradoff, escribió una nota titulada “fascismo puro y ma-duro” y utilizo imágenes de la represión policial en Egipto para “denunciar” los supuestos abusos del gobierno venezolano. La historia se repite una y otra vez, la mentira vive y se reproduce, mucho mas que la verdad que vende poco. Pero mas allá de la ingenuidad de algunos (retwitteadores seriales por ejemplo), los medios -al menos los serios- deben tomar medidas para evitarlo. A esta tarea se le ha denominado “Fact checking” y pretende desarrollar un procedimiento lógico de confirmación de la información con la ayuda de través de herramientas digitales. Este tema es materia de debate entre los sitios lideres en periodismo de datos y vale la pena aprender de su experiencia.  Craig Silverman es un periodista de Poynter especializado en el asunto y en su sección Regret the error, presenta ejemplos y pautas de buenas prácticas. A continuación reproduzco una presentación de Silverman con “herramientas, estrategias y claves para dominar el arte de la verificación online”. Para quienes deseen profundizar,  les recomiendo también:

Misinformation and Fact-checking: Research Findings from Social Science

El siguiente gráfico es tomado de la anterior presentación y revela la diferencia entre la difusión de la información errónea y la correspondiente corrección. Comprobando visualmente la teoría de Goebbels: “Miente, miente, miente que algo quedará, cuanto más grande sea una mentira más gente la creerá”.

Imagen123

*Caza de brujas digital: De Boston a Venezuela

torquemada

Los atentados en Boston, revelaron que las redes sociales y el libre flujo de información puede conllevar peligros insondables. La red de intercambio de información Reedit se convirtó en la plataforma de una campaña de crowdsourcing que invitaba a identificar a los sospechosos mediante imágenes compartidas, lo que terminó -como es natural- en una investigación policial amateur de dudosa integridad.

Como era de esperarse la enardecida multitud identificó erróneamente a varias personas, generando riesgos lógicos sobre su reputación y su vida (ver Murió un sospechoso de ataques en Boston y otro huyó tras tiroteo).

Reedit tuvo que pedir disculpas, pero el hecho no pudo ser pasado por alto y diferentes medios han tomado el caso como una señal de alarma sobre el descontrol en las redes sociales

El caso guarda analogías con lo ocurrido en Venezuela en la reciente jornada electoral, sin embargo la diferencia radica en que en el país suramericano hubo 7 muertes y poco se ha debatido al respecto. Ambos casos ponen de relieve la multitud eufórica y salvaje que inunda las redes sociales cuando se presentan hechos de marcado impacto social y político. Gente que comparte fotografías y datos sin constatar su veracidad y participa de un linchamiento digital que exacerba los ánimos y determina acciones.

En este escenario la irresponsabilidad de los formadores de opinión (tuiteros influyentes por ejemplo) y el surgimiento del discurso reaccionario son capaces de trasladarnos a la época de Torquemada muy a pesar del smarthphone.

Hay mucha tela para cortar: las implicaciones sociológicas, criminalísticas y políticas son evidentes, pero el tema de los derechos humanos debe primar sobre todos ellos. Nuestras opiniones reflejan quienes somos, pero las situaciones de tensión exigen sensatez, más aún en sistemas sociales propensos a los efectos mariposa.

A continuación les comparto una serie de artículos que razonan al respecto y de los que podemos extraer oportunas y urgentes lecciones. (Click en los títulos para enlazar)

knowing whereatentados en bostonbostonreeditylaresthree things

*Data visualization Best Practices 2013

La siguiente presentación es autoría de Jen Underwood y en 36 slides hace un completo recorrido sobre lo que debería tenerse en cuenta al momento de elaborar visualizaciones de datos. Incluye bibliografía, sitios webs recomendados, principios, errores comunes, ejemplos de buenas y malas visualizaciones y consejos de utilidad para la selección de los gráficos. Una buena compilación en mi criterio.

Mas entradas sobre Visualización 

*Lecciones de Edward Tufte (II parte): La epidemia de cólera en Londres de 1854 y los orígenes de la epidemiología

En una entrada pasada  extraje algunas recomendaciones del libro Visual Explanations de Edward Tuftte y les prometí continuar con la tarea, para seguir enriqueciéndonos. Como siempre, les advierto que es una presentación muy superficial del tema, si desean profundizar, lo conveniente es que acudan directamente a la fuente.

El segundo capítulo del libro se ocupa de analizar detalladamente dos casos en el que la realización de una visualización fue parte de un proceso determinante para resolver asuntos de vida o muerte. En primer término se trata del minucioso trabajo de investigación del médico inglés John Snow y que concluyó con el control de una agresiva epidemia de cólera en Londres en 1854. El segundo caso se refiere al proceso de análisis de las condiciones climáticas para el lanzamiento del transbordador Challenger en 1986 y cuyo desenlace es tristemente célebre.

Con esta metodología de análisis de casos (uno exitoso y uno fallido) Tufte evalúa la calidad del proceso utilizado para la evaluación y presentación de los datos cuantitativos detrás de ellos. En esta entrada me referiré únicamente al primero de ellos.

Snow no fue elegido aleatoriamente para ayudar a controlar la epidemia, años de investigación relacionada lo facultaban para este trascendental encargo, esta trayectoria fue la que respaldó la elaboración de su teoría y su posterior confirmación.

La investigación se realizo a partir de los datos obtenidos de la oficina general de registro sobre las muertes acaecidas (fecha y lugar del deceso) y las que posteriormente trazó en un mapa, revelando la estrecha relación entre el surgimiento de la enfermedad y una fuente de agua ubicada en Broad Street. El mapa muestra que las muertes ocurrieron todas en un radio cercano a la fuente y que aún las que no cumplieron con esta condición, ayudaron a confirmar la teoría como veremos más adelante. (El siguiente video detalle con claridad el procedimiento de analisis que siguió Snow)

The guardian no se quedo atrás y nos trae una visualización nítida e interactiva de los mapas de Snow en este artículo:

John Snow’s cholera map of London recreated

Aunque pueda parecer hoy en día un análisis sencillo, debemos ser conscientes del contexto, y de la evolución de la epidemiología para ese entonces, la bacteria vibrio cholerae solo se descubrió hasta 1886 y gracias al camino trazado por Snow.

Tufte se pregunta ¿Cómo hizo Snow para resolver este misterio? En primer lugar elaboró una teoría que ofrecía una explicación causal acerca de cómo se produjo la dispersión de la enfermedad, para eso se apoyó en análisis médicos, observación empírica y por supuesto datos, detectando así la correlación entre variables. A continuación el detalle de sus aciertos:

1. Ubicó los datos en un contexto pertinente para evaluar causalidad: La lista de los nombres de las victimas describían las circunstancias y el deceso en orden cronológico, lo que permitió a su vez realizar gráficos de series de tiempo. Sin embargo el análisis de la variable tiempo no era suficiente para satisfacer la hipótesis causal y se limitaba al reporte de las malas noticias diarias. Por lo tanto decidió elaborar una representación gráfica (espacial) que incluyera las dos variables: ubicación de las muertes y ubicación de las distintas fuentes de agua. El mapa mostró con claridad una zona con muchas muertes alrededor de la fuente de Broad street y comparativamente reveló otras zonas sin muertes a pesar de tener fuentes de agua cercanas.

2. Hizo comparaciones cuantitativas: La pregunta fundamental en análisis estadístico es ¿Comparado con qué? por lo tanto investigar a las víctimas del cólera es solo una parte de la búsqueda de evidencia. Para entender completamente la causa de la evidencia también es preciso analizar a aquellos que escaparon de la enfermedad. En el mapa se observa muy cerca de la fuente contaminada, una fábrica de cerveza y a Snow le pareció sospechoso que no tuviera ninguna muerte reportada desde ese lugar  por lo que llamó al propietario del lugar a preguntarle, este le contestó que los trabajadores tenían permitido beber una cierta cantidad de licor de malta y estaba casi seguro que ninguno de ellos había tomado agua de la fuente (Saved by the beer bromea con razón Tufte). Y fue así como estudiar las circunstancias de los que no se contagiaron con cólera fortaleció la evidencia que respaldó finalmente la teoría.

3. Consideró explicaciones alternativas y casos contrarios: Esta es quizás la parte mas difícil para los investigadores, enfrentar los desafíos a sus conclusiones. Sin embargo la credibilidad de una investigación depende justamente de eso, de evaluar toda la evidencia, incluso la que no respalda la teoría que se propone. Era necesario explicar las muertes producidas lejos de la fuente de agua, tarea que concluyó que aunque se tratara de gente que no vivía cerca del fuente, trabajaba o transitaba en algún momento del día por la zona, poniéndose en contacto con el foco infeccioso. Los datos que, al principio parecieron salirse de la lógica causal, terminaron aportando una evidencia poderosa, gracias a una minuciosa consideración.  

4. Evaluó la posibilidad de existencia de errores en los datos: Comentarios complementarios del mapa revelan posibles errores en los datos contenidos, gente que fue trasladada y murió en el hospital, las muertes no reportadas, y otros semejantes. Frente a esta deficiencia, esas muertes no fueron incluidas en el mapa, aunque si se incluyeron en las tablas. Por otro lado, cada elección otorga ventajas y desventajas. El mapa de Snow contenía falencias: las tasas de decesos no se muestran y tampoco la relación con la variable poblacional (zonas más o menos pobladas). Ahora mucho tiempo después sabemos que lo ideal es que el mapa hubiera mostrado estas dos variables, sin embargo Snow solucionó esta carencia en el texto de su reporte donde incluyó aclaraciones al respecto. En este punto se pone de relieve la importancia de la elección del diseño de una visualización, de la naturaleza de sus variables (tiempo, espacio, cantidad) y de la forma correcta para representarlas. Un error en esta etapa del proceso puede echar por borda todo el trabajo de pesquisa realizado hasta el momento.  Con algunos ejemplos Tufte demuestra como ciertas agregaciones temporales distorsionan los datos y por ende las conclusiones. Como dato de color presenta una infografía de cómo los seguidores de lo que él llama Pop Journalism hubieran presentado el trabajo de Snow:

 popjournalism2

La investigación de Snow ha sido piedra angular para estadísticos, epidemiólogos e investigadores. En la zona donde antes estuvo la fuente infectada hay un bar con su nombre e incluso descubrí un corto “Snow” que relata su historia, pero es gracias a Tufte y a su contextualización que podemos sacar algunas conclusiones para el tema que nos interesa:

*Snow tenía una teoría y debía confirmarla, el criterio para visualizar fue entonces el de confirmación sobre estos criterios remitirse a esta entrada.

*Los datos deben cotejarse: las preguntas a cómo, cuándo, dónde y por quién se obtuvo la información deben aplicarse siempre, aún cuando contraríe la evidencia a favor.

*Recordar la pregunta clave ¿comparado con qué? si no somos capaces de otorgar marcos comparativos, fallamos en la contextualización y en el objetivo.

*La elección de un determinado tipo de gráfico puede comprometer el trabajo de investigación: para estos casos conviene probar distintos tipos y elegir la que guarde mayor fidelidad con las conclusiones.

* La visualización no es un fin en sí mismo, hace parte de un proceso de múltiples etapas y su objetivo es ampliar el conocimiento sobre una cuestión y coadyuvar el proceso de comunicarla.

Espero que esta entrada les sea de utilidad, la idea es hacer pequeñas contribuciones a la teoría de la visualización, sobre todo en castellano donde cuesta aún conseguir material relacionado. Si estos temas te resultan de interés, te invito a suscribirte al blog en el menú inferior e intercambiar opiniones al respecto.

Mas entradas sobre Visualización 

*Sobre la necesidad de criterios: Navegar en la web y elaborar visualizaciones con objetivos claros.

texto1

La tecnología puso de relieve la naturaleza del conocimiento: multidisciplinar, colectivo e infinito. Hoy alimentamos nuestro sistema de pensamiento individual con ideas provenientes de todas las disciplinas. Sin embargo nuestras elecciones –auténticas y no impuestas– están regidas por ciertos criterios personales a los que nos ceñimos  y nos otorgan coherencia.

En mi caso este blog me ha ayudado a relevar esa característica, puedo escribir de temas muy distintos y siempre termino con un elemento común perceptible en cualquiera de ellos: me interesa cómo funciona el mundo, cómo respondemos los seres humanos al cambio, cómo la tecnología pone al descubiertos nuestras preconcepciones y cuáles son nuestras debilidades frente a ella.

Mis temas recurrentes (curación de contenidos y visualizaciones) hacen parte del mismo cuestionamiento ¿cómo usar la información para aumentar nuestra comprensión?, ¿cómo darles significado? Son procesos que -aunque no son nuevos- han adquirido relevancia a partir de las herramientas digitales y la sobreabundancia de información.

Twitter es mi herramienta de descubrimiento, quienes me siguen saben que el 80 % de las veces la uso como plataforma de información ” descubro, leo y comparto”. Y todo a partir del constructo intelectual de otros, de sus reflexiones, rechazos y elecciones. Un hecho que confirma que aunque la tecnología se potencie, el valor se genera en el intercambio del conocimiento. Por eso es natural que asuma que los datos deben ser libres, que los códigos deben ser abiertos, que el derecho de propiedad intelectual necesita reformas urgentes y que me importe poco si me copian alguien se inspira a partir de mis textos, porque yo he recorrido el mismo camino.

¿Y toda esta reflexión personal para qué? Para decirles que solo con un criterio definido se logra aprovechar el caos informativo y convertirlo en algo coherente y fructífero.

Para darles un ejemplo, consideraré el tema de las visualizaciones, sobre las que creo que falta trabajar con creces el concepto de criterio, como se desprende de la cantidad de ellas que carecen de contenido, claridad y objeto y que abundan en la web.

El pasado 27 de marzo Jim Stikeleather publicó un artículo en HBR Blog network titulado “When Data Visualization Works — And When It Doesn’t” (cuando la visualización de datos funciona y cuando no lo hace) elaborando su argumento sobre la idea de que lo que importa cuando se visualiza es comunicar una idea y que este proceso a su vez incentive la toma de decisiones especificas. Haciendo aportes más que relevantes, se enfoca en el tema del criterio y define cuales son “las razones legítimas” para elaborar una visualización:

1)Confirmar conjeturas preexistentes sobre la forma como funciona un sistema. Por ejemplo para el análisis de mercados, competidores y consumidores. Las visualizaciones pueden ayudar a confirmar o rechazar tales suposiciones. 

2)Educar, esto se puede hacer en dos formas: a través del reporte periodístico que evalúa las medidas de los sistemas y los valores de esas medidas en forma comparativa (a lo largo del tiempo, o comparado con otro sistema, modelo o unidades, por ejemplo comparaciones entre países) o aquellos que analizan el comportamiento de un sistema y su evolución a través del tiempo, con el objeto de obtener nuevas interpretaciones y claves,  este modelo se percibe en la “gamificación” del entrenamiento y desarrollo.  

3)Explorar datos, lo que se refiere al análisis de grandes cantidades de datos y su procesamiento para construir modelos que permitan predecir y mejorar el manejo de los sistemas en cuestión. Este criterio se relaciona directamente con los procesos de análisis exploratorio de datos (AED) que dominan los expertos en estadística.

Es cierto que sobre el tipo de “razones legitimas” para elaborar visualizaciones quizás pueda abrirse un debate y ampliar un poco el espectro, pero el intento de categorizarlas y limitarlas es una empresa que debe resaltarse. La existencia de este criterio se impone como condición de eficacia, impacto y utilidad de esta herramienta.                                                       

texto2

En conclusión  todo se reduce a tener claro por qué hacemos las cosas y no simplemente hacerlas porque se pueden hacer.Ese es quizás uno de los principales riesgos de la tecnología, hacer invisible lo evidente.

Como link relacionado les recomiendo esta entrevista realizada por Juantxo Cruz a Santiago Ortiz @Moebio, cuyas respuestas ponen de relieve ciertas consideraciones sobre el tema que vale la pena traer al debate: 

Moebio” “Hay una burbuja de la visualizacion de la información” 

Mas entradas sobre Visualización 

*33 sitios sobre Visualizaciones: herramientas, blogs, recursos y proyectos

lista2Si te interesa el tema y su aplicación, qué mejor que explorar por ti mismo, a continuación una lista con links directos para guiarte sobre algunos sitios especializados y con distintas funcionalidades y enfoques.

(Nota:  la lista no pretende ser exhaustiva, es solo una muestra de la enorme variedad existente)

Colecciones para explorar e inspirarse 

Visualizing.org

Visual Complexity

Visualizing data at the Oxford Internet Institute

Information is beautiful

Flowing data

Herramientas  para elaborar tus propias visualizaciones

(Visualizaciones complejas)

Github gallery

Many eyes

Gephi

Tableausoftware

Visual.ly 

(Visualizaciones simples)

timeline.verite.co |líneas de tiempo

Wordle | nubes semánticas

You are your words | autoretratos con palabras

 

Blogs & webs para aprender 

Visualising data

Visualizing data Harvard Business Review

Sheila Pontis

Stories through data

Cool infographics

The functional art

Edward Tufte

Aqui de omnibus dubitandum | Mis otros artículos sobre este tema

 

Para fanáticos de los Mapas

David Rumsey Map collection|La mas hermosa colección de mapas antiguos con zoom in-out

Making Maps: DIY Cartography | Recursos e ideas para la elaboración de mapas

Maps stamen|Elabora tus propios mapas en bellas versiones

Colour theory and mapping|Algunos consejos

 

Proyectos interesantes

Beautiful trouble| Leer mi entrada al respecto

Data stories | Podcasts sobre visualizaciones, para los más apasionados.

Varieties of democracy

Stamen

The New York Times Company Research & Development Lab

Bestiario

Portfolios

Lucas Zanotto

Tulpinteractive

Moebio

*Teoria de la visualización: algunos consejos de Edward Tufte

El pase de diapositivas requiere JavaScript.

 

La trascendencia del lenguaje visual es hoy indiscutible, paralelamente a la evolución de las comunicaciones y el boom tecnológico, poder comunicarse a través de las imágenes es una habilidad imprescindible. Infografías, visualizaciones, gráficos y mapas se incorporaron con naturalidad a nuestras fuentes informativas. Por tal motivo es preciso desarrollemos la capacidad de evaluarlas. Del mismo modo que en la web hay datos de baja calidad, hay visualizaciones mediocres que persiguen otros intereses (manipulación informativa, política, promoción, etc.) y requieren una mirada crítica.

Así que además de mostrar herramientas, trabajos y proyectos relacionados con visualizaciones, escribiré cada tanto, entradas relacionadas con “teoría de la visualización”, extrayendo principios generales que puedan guiarnos en este proceso.

Para empezar me apoyaré el libro de Edward Tufte “Visual Explanations”. Tufte es un estadístico norteamericano, profesor emérito de ciencias políticas, estadística y ciencias informáticas en la Universidad de Yale y  sus trabajos son considerados pioneros en las áreas de diseño de la información y visualización de datos. En su página web pueden encontrar (en inglés) todo lo relacionado con su trayectoria, libros, cursos y publicaciones.

Existen tantas visualizaciones como tipo de conocimiento, ya que no son otra cosa que su propia representación. De este modo tenemos visualizaciones de datos cualitativos, cuantitativos, conceptuales, de estrategia, metafóricos y de estrategias o procesos. “Visual explanations”, se ocupa del proceso de “comprensión” del conocimiento mediante el correcto análisis y representación de las distintas categorías, así como de sus relaciones y mediciones.

El mensaje fundamental es que al momento de ofrecer explicaciones sobre determinados fenómenos  debe perseguirse la calidad, relevancia e integridad de la información, respetando cuidadosamente los lineamientos del método científico seleccionado.

Alcanzar estas tres cualidades implica un proceso para el cual Tufte nos concede algunas pistas, acompañadas de ejemplos que minuciosamente explica y de los cuales extraigo algunas ideas:

*Claridad y excelencia en conocimiento se transforman en claridad y excelencia en la presentación de los datos: “Cuando los principios de diseño replican principios de razonamiento, el acto de disponer la información se convierte en un acto de entendimiento”. De modo que si no hay precisión y control en el tema que se quiere representar, la técnica es inútil y las debilidades terminaran surgiendo tarde o temprano.

*Es preciso examinar la lógica de la representación de la evidencia cuantitativa: ¿Qué principios deben seguirse para mostrar los datos? ¿De dónde provienen esos principios?¿Cómo es posible mantener la integridad de las visualizaciones aún en las más complejas?¿Cuáles son los estándares para evaluar la evidencia, alcanzar las conclusiones y sustentar un proceso de toma de decisiones?

*Las estrategias de diseño deben encaminarse a una adecuada disposición de las imágenes en el tiempo y en el espacio a través de una narrativa. Lo que se pretende es que el diseño realce la complejidad, dimensionalidad, complejidad y claridad del contenido, haciéndolo más profundo para su audiencia.

*Los mapas son una representación del mundo físico a través de la expresión visual de cantidades en dos dimensiones: localización (latitud y longitud) y extensión (superficie cubierta). Por el contrario cuando se quiere representar cualquier otro dato mediante un gráfico, es preciso reemplazar las escalas espaciales naturales del mapa por escalas no basadas en analogía geográfica y es justo allí donde se produce un salto conceptual enorme en la historia de la visualización y una oportunidad para dotarla de eficacia.

*Hoy contamos con planos de dos dimensiones, que permiten comprender las relaciones entre diferentes variables y establecer procesos de causa y efecto, sin embargo la gran parte de los problemas no son bidimensionales (de dos variables), por el contrario se constituyen por múltiples variables. Este ha sido un tema fundamental en la evolución de la visualización ya que deben representarse en superficies de dos dimensiones: paredes, piedras, lienzos, papeles y pantallas de computadoras. La solución a este dificultad la han resuelto los pintores mediante la perspectiva y más recientemente los expertos en animación utilizando el movimiento y también la perspectiva.

*La forma de producir las visualizaciones es importante, pero esta se somete siempre a la fidelidad de la información. Las imágenes son muy susceptibles de ser manipuladas (resaltando datos y minimizando otros mediante engañosos efectos visuales) por eso es fundamental evitar la distorsión de la información. Hoy en día, el desarrollo del software ha generado infinidades de herramientas que proveen mayores oportunidades para este tipo de manipulaciones.  

*Estamos expuestos a imágenes que representan datos arbitrarios, parcializados, con sesgos en sus procesos de recolección y análisis. En este caso ¿Cómo evaluamos la integridad de las visualizaciones? ¿A qué estándares éticos debe sujetarse su elaboración? Una forma de fomentar la integridad es insistir en la presentación del material no procesado (fuentes) a partir del cual se produjo la visualización, así como la identificación del creador y su método.

Estas son algunas ideas del primer capítulo relacionadas con la relevancia de las variables (bidimensionales o múltiples) y de la relación que se persigue (causa-efecto), así como la transformación de las escalas (de naturales a abstractas) y por supuesto de la integridad de la visualización. 

La galería del inicio de la entrada, contiene algunas imágenes que acompañan el libro de Tufte, para profundizar en su explicación les dejo  estos links:

Josef Koudelka, “The urge to see”

Michael Florent van Langren, “La verdadera longitud por mar y tierra”

Photograph by Bob Adelman, “Mural with Blue brushstroke”

Redesign animation by Edward Tufte and Colleen B. Bushell

Para consejos adicionales de Edward Tufte, un vídeo del 2010:

Mas entradas sobre Visualización en este blog 

*Notas al margen: viaje al interior de tu cabeza

wallace2

¿Qué sentido tiene adquirir conocimiento si este no es fecundo? ¿Por qué acumular interminablemente datos que no se transforman en acciones y decisiones? ¿Una novela, un cuento, las noticias del día o los algoritmos más complejos?

Escuchamos todo el tiempo que estamos en la era del big data, que proporcionamos información constantemente a grandes corporaciones que usan esos datos para sus respectivos procesos de toma de decisiones, estudios de mercado e inclusive predicciones. Pero no son los datos aislados los que se convierten en valor, si no el análisis conjunto de todas las variables y sus relaciones.

Ese es el mismo proceso que es posible aplicar a nuestra información mediante el análisis y el “relevamiento” de nuestras “notas al margen”, esos rastros que dejamos cuando descubrimos textos, imágenes, fórmulas que nos atraen. Para eso les propongo que encontremos nuestras listas, aquí van algunos ejemplos:

* Los párrafos subrayados de un libro
* Los 140 caracteres twitteados y retwitteados
* La lista de “Me gusta” del facebook
* Los blogs que sigues
* La lista de los periódicos, revista o magazines que lees
* Y para los menos amantes de la lectura, las imágenes favoritas que albergas en algún archivo olvidado.

Estas listas son el equipaje a llevar en la expedición al interior de tu cabeza, empieza por releerlas detenidamente, identificar sus elementos, establecer relaciones entre ellas, asociarlas, vincularlas con emociones y experiencias concretas. Es así como el conocimiento cobra vida y se vuelve pasión o creatividad, mediante el descubrimiento del complejo proceso de selección que se esconde tras nuestras notas al margen.

Este proceso puede hacerse simple o complejizarlo,  como hizo Amy Robinson cuando le preguntaron qué cosas le inspiraban. Amy analizó “ su lista” (compuesta por mails que ella misma se envía para guardar links de su interés), los organizó en una tabla de excel, produjo gráficos simples y luego hermosas visualizaciones. El resultado de su trabajo le permitió encontrar respuestas y patrones para contestar la pregunta. En la siguiente presentación el progreso de Amy:

El pase de diapositivas requiere JavaScript.

La imagen con la que inicia esta entrada es una mirada al interior de los libros de David Foster Wallace y hacen parte de la colección exhibida por El Harry Ransom Center de la Universidad de Texas. Sus notas al margen son con seguridad el principio de ideas más notables, expresiones de su acuerdo o desacuerdo con algún tema y en todo caso, de su diálogo con la vida.

Recientemente leí un libro de Alain de Botton,  -filosofo inglés que les recomiendo a ojos cerrados si coinciden conmigo en alguna o algunas ideas expresadas en este blog- y cuya estructura es un ejemplo perfecto del proceso de descubrimiento del que hemos hablado.

“El arte de viajar” es un libro dividido en 9 capítulos, cada uno de ellos revela al principio tres ideas: El título (que expresa en general emociones o situaciones), los lugares (que inspiraron al título) y las guías (escritores, pintores, poetas y grandes personajes de la historia).

Así, el autor se guía sabiamente por los sentidos y la sensibilidad de los grandes, no para acumular conocimiento si no para narrar su propia historia y leer e interpretar el mundo personal a través del mismo.

Con este libro les presento mis “notas al margen”, bajo mi mirada, ritmo y estilo, los invito a hacer lo mismo y compartirlo:

Si te gustó esta entrada te invito a compartirla o a suscribirte a este blog en el menú inferior. En la próxima entrada compartiré algo de teoría de la Visualización, a partir del libro de Edward Tufte “visual explanations” .

El derecho a “no leer”

Imagen133“For  we are more than simple shelters for our inner libraries;

 we are the sum of these accumulated books.

Little by little, these books have made us who we are,

and they cannot be separated from us without causing us suffering”

Pierre Bayard

 

El fin de semana, leí un artículo del que es quizás mi blog favorito, comentando el último libro de Pierre Bayard, profesor de literatura de la Universidad de París, que invita a leerlo por la insurrección de sus observaciones.

Bayard opina que “ser cultivado” es una cuestión de “orientación” y no del número de libros que uno coleccione en su haber mental, una interesante idea que propone que el valor no está en el conocimiento per se,  si no en la capacidad de encontrar en los libros las intuiciones que uno persigue y  relacionarlas con otras ideas, emociones y conceptos.

Sin embargo en nuestros días “ser cultivado” se entiende diferente, se identifica más con un acepción lineal y absolutista, un sistema represivo y plagado de hipocresía respecto a lo que hemos efectivamente leído y cuyas falsedades se multiplican de acuerdo al nivel de importancia que se le conceda al libro en cuestión (un ejemplo de cómo desarrollamos nuestros puntos de vista a través de las impresiones de otros y no de acuerdo a nuestro criterio personal).

La propuesta de Bayard es un llamado a la honestidad y al vínculo con lo emocional, abarcando planos distintos al intelectual  bajo la  noción de que los libros no son elementos aislados si no parte de un sistema personal de comprensión. De este modo es válido “no leer” ciertos libros, ya que este acto constituye el ejercicio de la “curación” personal, un criterio de selección auténtico que expresa su posición (la del libro rechazado) en nuestro sistema.

El desarrollo de esta idea, le da título al libro que se reseña “How to talk about books you haven’t read” (cómo hablar de libros que no has leído), pregunta que se responde cuándo –en el momento en que se da una discusión acerca de un libro desconocido- se sienta una posición respecto al contexto y a las relaciones entre los textos y sujetos en el sentido que sugiere el libro, participando del debate sin dificultades.

Bayard revoluciona y provoca, al invitar a justipreciar más este tipo de asociaciones que a los libros mismos, despojándolos de su sentido literal y presentándolos como un elemento móvil y flexible moldeado por la experiencia personal. Su teoría sin embargo no pretende convertirse en una justificación para descartar libros, si no una exaltación de los libros más amados y una invitación a leer e interpretar el mundo personal a través de ellos.

Rescaté las ideas principales de esta nota porque creo que en la medida en que hagamos más auténtica nuestra experiencia literaria, aprenderemos a narrar nuestra historia, o dicho de otro modo, a borrarnos y a reescribirnos.

Para los que quieren profundizar en este tema les dejo un video (en inglés) de una charla con Pierre Bayard y Umberto Eco en New York.

 

En la próxima entrada haré una aplicación práctica de estas ideas con ocasión de la lectura de “El arte de viajar” de Alain de Botton.

 

*Estrategias, ideas y fundamentos para cambiar el mundo a través del arte y la tecnología.

bee2

“Beautiful trouble” es el nombre del libro y la interfaz lanzada en 2012 con el objeto de generar acción política mediante el arte, la tecnología y los logros de los movimientos sociales. A partir de la evaluación de un estado actual de las cosas en materia ambiental, social y económica, este recurso combina estrategia política con las herramientas estéticas y tecnológicas disponibles para un resultado prodigioso.

La propuesta es “una caja de herramientas para la revolución” y está dirigida a aquellas audiencias inconformes y actores comprometidos con el cambio o change-makers. Para lograr el éxito de este recurso los creadores se concentraron tanto en el contenido como en la forma de presentarlo, asegurando un doble nivel de impacto y entregando consejos concretos sobre cómo abordar campañas de difusión y las mejores prácticas para este proceso.

La estructura está compuesta por distintos módulos, interrelacionados entre ellos y que constituyen el fundamento de cualquier proyecto de este tipo: Principios, tácticas, marcos teóricos, casos de estudio e historias de personas que han inspirado al movimiento, a continuación las imágenes explicativas:  [click en ellas y redirecciona a ejemplos concretos].

tactics2

ppios2

theories2case1

exa2

Aunque la calidad del contenido sería suficiente para satisfacer los objetivos, la belleza y practicidad de la interfaz es otro punto para destacar. Los elementos mencionados se engranan en una visualización interactiva que permite tres perspectivas: la lectura del artículo, la apreciación del contexto general y las relaciones existentes, de acuerdo a lo que se seleccione previamente, convirtiéndose en fuente inspiradora e ilimitada de ideas para la acción. Aquí algunas capturas de ejemplo:

 Lectura del artículo

art1

 Contexto

cont1Interrelaciones

net1

Para los amantes de las visualizaciones es un buen ejemplo de equilibrio entre arte y mensaje como enuncia uno de los principios de este proyecto. La importancia concedida al lenguaje visual es innegable y se percibe desde el inicio ya que su nombre se inspira -creo yo- en uno de los libros de Edward Tufte: “Beautiful  Evidence“, un texto que revolucionó el campo de la visualización de datos y convirtió a su autor en el pionero de la información gráfica moderna.

Para los activistas y las organizaciones, Beautiful trouble es de consulta obligada y subsana muchas de las fallas que impiden que las buenas intenciones no sean suficientes para impulsar ideas transformadoras.

Y para mí que tengo debilidad por las  mezcolanzas, es un ejemplo perfecto de teoría, praxis y belleza.

Mas entradas sobre Visualización 

*De verdad ¿eres lo que te gusta?. Un ejercicio autorreflexivo.

“You are what you like”  es el nombre de un sitio web que con base en las cosas que te gustan y que marcas con un “like” en facebook te dice “quien eres” en materia emocional, intelectual y política. Sin entrar en detalles de existencia filosófica, no suena bien desde el  principio: tomar el test para saber quién eres y luego sorprenderte con que efectivamente tiene correspondencia, encendió en mi cabeza varias alertas.

La primera de ellas es la conciencia que se toma, de la cantidad de información que proporcionamos al decir “lo que nos gusta”, tanto así que permite crear un perfil bastante cercano de nosotros mismos (otro aplauso para los algoritmos) que está disponible para todo tipo de demandantes de datos (empresas, consultoras de investigación de mercado, agencias de inteligencia, etc..), y cuya aplicación amerita una entrada aparte en este blog.

Y a pesar de la paranoia seguida de resignación, la segunda de las alertas fue la que se quedo conmigo y es la referida a la propuesta misma del concepto:

“Eres lo que te gusta”, un eslogan poco original y muy de moda por estos días (“eres lo que comes”, “eres lo que lees”, “eres lo que escuchas”) pero con una verdad lacerante: el peso de “los gustos” en nuestras vidas. Inevitablemente pensé en Bourdieu y en el que ha sido seleccionado como el sexto libro más importante en Sociología del siglo XX: Distinction: A Social Critique of the Judgment of Taste y traducido al español comoLa distinción. Criterios y bases sociales del gusto”.

Bourdieu analiza la capacidad del “gusto” para hacer distinciones, clasificar y juzgar. Algo tan cotidiano como la forma en que decoramos nuestra casa, en que nos vestimos, lo que escuchamos, lo que comemos, habla a gritos de quiénes somos y mejor aún “de lo que queremos ser”, porque  de sus investigaciones se concluye que hay un abismo entre el discurso y los hechos, ya que hay cosas consideradas de “buen gusto” es decir “legítimas” y cosas que no, todo esto por los vínculos que se suponen existen entre ellos y el origen social y el nivel cultural del interlocutor. En la siguiente entrevista Bourdieu lo explica con claridad:

 

Si queremos revalidar esta teoría no basta sino echar una mirada a las redes sociales, un escenario de permanente construcción de identidad mediante la expresión de nuestras elecciones. Debo admitir que aún en los momentos de mayor desidia, es posible ver a Bourdieu entre nosotros y es que abundan los ejemplos de que no somos auténticos para expresar lo que nos gusta por miedo al juicio que subyace bajo nuestra elección. En la reseña del libro “Hay que ser realmente idiota para o la infancia del antropólogo”, que gravita sobre el mismo tema, se describe con literalidad y destreza esta situación:

“El idiota -aquel sujeto que se encuentra consumiendo productos culturales no legitimados y, consciente de eso, tendrá que optar por dos actitudes: la indignidad cultural (y, por lo tanto, concederle razón al legitimismo) o bien asumirse como idiota y denegar los patrones cultos, cediendo al populismo”.

Un ejemplo práctico lo encontré en la película “días de vinilo” dirigida por Gabriel Nesci y reseñada por Diego Maté:cuando Damián (Gastón Pauls) le pregunta a Vera (Inés Efrón) qué música escucha y ella le dice “variado”: enseguida Damián la reta [regaña], le explica, indignado, que “variado” no significa nada, que él quiere que le dé un nombre concreto de un grupo o una canción que la emocione, porque eso es (según Damián en plan aleccionador) lo que la define, lo que la hace ser quien es, y más cosas por el estilo”.

Y así vamos por la vida, emocionándonos o decepcionándonos de la gente de acuerdo  a sus respuestas. Con esto no pretendo negar el poder de la afinidad para crear comunidad y valoración mutua, si no afirmar las restricciones que determinadas condiciones imponen a la expresión de nuestros puntos de vistas, de nuestra libertad.

El sacrificio de la autenticidad llega a puntos tales,  que hay personas que nunca dicen lo que les gusta, si no que lo que no (el reggaetón y Paulo Coelho ocupan los primeros lugares, sin duda). La lista es interminable pero previsible y así se va creando una elite musical, gastronómica o de simple apreciación estética que impide que los gustos reales emerjan y se socialicen.

Un ejercicio autorreflexivo doble, que al menos deja una nimia satisfacción: “querido algoritmo: no te las sabes todas, en los “likes” también se miente”.

_______________

Si te gustó esta entrada, quizás quieras leer:

*¿Son realmente libres nuestras opiniones en Twitter?