Búsqueda, vuelo y rima: mirar en la era Google

Corría el año 2000 cuando Eric Schmidt, entonces Presidente de Google, decidió elevar las capacidades de la herramienta Google Search a la altura de un reto singular: responder apropiadamente a la búsqueda más popular que había visto hasta entonces la plataforma, referente al vestido Versace verde que Jennifer López había lucido en la ceremonia de los Grammy ese febrero. Los términos “Jennifer López’s green dress” ameritaban la generación de resultados visuales –acceso inmediato al objeto buscado–, y ya no simplemente una lista textual de links relacionados; fue así como Google Image Search nació, y con ella una manera inédita de entender y consumir la imagen fotográfica (Bain, 2015).

Es probable que la leyenda del vestido Versace sea una romantización divertida del proceso de conceptualización de Image Search, pero no por eso es una historia menos elocuente. Para el año 2000, cuando la penetración de Internet correspondía a cerca del 6% de la población mundial, los usuarios querían imágenes. Si la era post-digital se caracteriza por una cultura global oral-visual-háptica, la gama de productos –aplicaciones– Google ha contribuido enormemente a generar los flujos de información, protocolos e incluso gestos que caracterizan nuestra relación actual con la imagen mediada por dispositivos digitales, desde aparatos desktop hasta móviles. Esta relación tiene muchas aristas (muchas más de las que podría abarcar en un texto de esta extensión), pero me centraré especialmente en la manera en que estas circunstancias han logrado determinar los orígenes, usos y limitaciones de la imagen que circula en Internet, bien sea a través de sus innovaciones técnicas o de sus políticas. Me atrevo a proponer, incluso, que la imagen mediada por Google también ha supuesto una reconfiguración de la mirada humana.

En 2011, la artista visual Dina Kelberman inició un proyecto de arte online titulado I’m Google. Utilizando un sencillo tema de Tumblr con diseño de grilla, Kelberman comenzó a publicar imágenes y videos tomados de Google Image Search bajo un criterio que describe como “stream of consciousness”: la grilla muestra una continuidad entre segmentos de imágenes basada en similitudes de color, forma, composición o contenido y, a medida que el usuario/espectador recorre la grilla, es posible notar el cambio progresivo de un segmento a otro (de esta manera, imágenes de edificios en llamas conducen a bosques incendiados, y éstos a nubes de humo).

En el texto que acompaña a I’m Google, Kelberman explica:

El blog salió de mi tendencia natural a pasar largas horas obsesionándome sobre búsquedas de Google Image, coleccionando imágenes que me parecían hermosas, guardándolas y clasificándolas por tema… Siento que mi experiencia paseando por Google Image Search y YouTube, buscando información oscura y encontrando resultados inesperados, es muy común. Mi blog funciona como una representación visual de este fenómeno; esta capacidad de deriva sin fin, de un tema a otro, es la calidad inherentemente fascinante que hace del Internet algo tan sorprendente.

I’m Google es un proyecto de arte intrigante por sus propios méritos, y la manera en que se inserta en discursos contemporáneos y prácticas de arte digital. Por ejemplo, si se llega a él sin conocer su trasfondo, es posible confundirlo con el producto de un algoritmo (hablaré de esto más adelante). Pero también, como bien apunta Kelberman en su statement, es una interesante expresión de la manera en que el esquema de búsqueda introducido por Google ha logrado configurar no solo una práctica muy específica de búsqueda y almacenamiento, sino una manera particular de imaginar –valga la redundancia– el mundo de las imágenes. I’m Google es una muestra micro de un fenómeno inseparable del uso de Internet: Image Search facilita la transición constante de una imagen a otra, bien sea provocada por sugerencias como “búsquedas relacionadas” o simplemente por la variedad de resultados que puede arrojar, simultáneamente, una misma búsqueda. El consumo de la imagen se convierte, así, en un proceso fluido, y la contemplación no tiene cabida en ese flujo; el proceso se da, por el contrario, a través del consumo de muchas imágenes al mismo tiempo. Del mismo modo, las imágenes que contiene la grilla de Google Image Search se muestran en primera instancia sin un ápice de contexto (incluso es posible acceder a ellas como archivos individuales, sin siquiera pasar por la web que las aloja): como imágenes puras, únicamente enmarcadas dentro de una búsqueda determinada por un término, se prestan para desarrollar narrativas hipertextuales o generar discursos en virtud de sus relaciones en ese espacio blanco de “Resultados”.

Captura de I’m Google

Captura de I’m Google

Captura de I’m Google

Captura de I’m Google

En su página web, Dina Kelberman ha colocado una nota “sobre el proceso” de I’m Google. Mucha gente, escribe, le pregunta si el blog se actualiza a través de un algoritmo, cuando en realidad es ella misma quien selecciona y sube cada imagen individual. Del mismo modo, indica que muchos asumen que I’m Google utiliza predominantemente la función de Google “Search by Image”, que consiste en subir una imagen y dejar que el buscador arroje otras con características similares, especialmente en base a porcentajes de color; sin embargo, Kelberman afirma que sus búsquedas relacionales son logradas primordialmente a través de palabras clave, en vista de que las relaciones entre sus imágenes no son siempre, necesariamente, solo visuales. Estas aclaratorias (y las preguntas que las motivan) revelan cómo nuestro ojo también se ha acostumbrado a la lógica algorítmica y a la estética de la base de datos –incluso cuando no sea realmente un principio organizador automatizado el que está detrás. La imagen fotográfica, fuera del mundo físico, habita también ese mundo y da pie a una constelación de datos visuales.

La imagen fotográfica digital está en constante relación con otra(s). Esto no se limita al momento de utilizar Image Search: por ejemplo, todas las imágenes que constituyen una determinada página web –fotográficas o no–, establecen un diálogo hipertextual y azaroso entre sí. La totalidad de Internet posee innumerable cantidad de datos visuales que crecen cada segundo, y que simplemente se acumulan y pierden relevancia hasta el punto en que desaparecen de vista; basta pensar, por ejemplo, en la primera imagen de una cuenta de Instagram con cierta trayectoria: ¿cuánto tiempo es necesario invertir scrolling down en una pequeña pantalla de móvil hasta llegar a ella? Las capas de data visual se superponen y, ultimadamente, se anulan. A propósito de este punto, el columnista de tecnología, blogger y empresario Om Malik (2014) comparte sus  pensamientos sobre cómo realmente navegar y aprovechar estos volúmenes masivos de data visual:

Necesitamos desesperadamente un servicio que nos ayude a crear una línea de tiempo visual de nuestra vida. Esa aplicación es aún más importante ahora que no estamos haciendo álbumes de fotos como solíamos; en su lugar, estamos generando imágenes discretas constantemente y enviándolas a nuestras redes sociales en un flujo continuo. Algunos tomamos fotos y las dejamos almacenadas, solo para luego pasar horas buscando una específica –estas miles de fotos representan nuestro stream of consciousness.

Cualquier principio de organización tendrá que utilizar datos sobre cómo las personas buscan fotos en un conjunto más amplio, y luego construir un algoritmo basado en los patrones de búsqueda, en constante cambio, de millones de personas. Este esfuerzo de foto-organización tiene que ir más allá, digamos, de la semántica (es decir, “árboles”, “edificios” y otros elementos básicos); al igual que la Búsqueda de Google nos lleva a encontrar cosas relevantes (o aparentemente relevantes), el siguiente gran servicio de fotos podría, esencialmente, encontrar fotos relevantes, asignarlas a una ubicación y unos eventos, y emerger en momentos oportunos al leer nuestros comportamientos sociales.

Más adelante en su texto, Malik describe cómo podría funcionar ese servicio inteligente y personalizado, en función de comportamientos del usuario:

Por ejemplo, experimentamos momentos o interacciones como sentimientos que están asociados con objetos, escenas e imágenes. Así que, tal vez, cuando vemos más tarde la imagen, recuerdos de esas interacciones, momentos y sentimientos vuelven a nosotros. ¡Hay tanta metadata en esa imagen! Estas líneas de tiempo no lo serían personales: hemos llegado a un punto en que las fotos y videos forman parte de un diálogo sociopolítico más amplio. Pero, ¿cómo podemos crear un medio para que los visuales puedan contar la historia de nuestro tiempo?

Cuando estuve en Suecia hace unos meses, me senté a tomar café con Peter Neubauer, quien fue el cofundador de Neo Technology y la base de datos de código abierto Neo4J. La conversación giró en torno a la evolución de la fotografía. Neubauer señaló que las fotografías siempre han sido herramientas de satisfacción creativa, artística y personal, pero en el futuro, la creación de valor real vendrá de coser fotos como un tejido, extraer información y luego proporcionar esa información acumulativa como un paquete totalmente diferente.

Según la visión de Malik, el flujo constante de imágenes en Internet –especialmente en redes sociales– es una especie de dilema que no ha sido atendido, y una mina de oro de metadata que podría ser explotada para producir experiencias para el usuario más envolventes y emocionantes. En este marco de posibilidades, Google Search es una especie de alegoría del problema: un servicio único, de uso casi hegemónico, que tiene el poder de filtrar la totalidad de imágenes que constituyen Internet y, por sí mismo, dilucidar su relevancia en relación a ciertos términos y el orden de importancia en que deben ser presentadas al usuario. En definitiva, el esquema que propone Neubauer sería un quiebre con ese tipo de búsqueda, pues el objetivo sería considerar gigantescas cantidades de imágenes como un todo continuo, acumulativo, cuyo contenido está intrínsecamente relacionado y del cual es posible extraer información.

Captura de I’m Google

Captura de I’m Google

Captura de I’m Google

Captura de I’m Google

La manera estándar de extraer información de gran cantidad de data es identificar patrones dentro de ella. Incluso se podría decir que en I’m Google, a pesar de ser un proyecto artístico sin ningún otro fin que sí mismo, hay una suerte de extracción de patrones: Kelberman utiliza el buscador para hacer referencias y “rimas” –en palabras de la investigadora Stephanie Barber (2014)–, para demostrarnos que toda imagen es una referencia a otra. Esta contemplación, potencialmente infinita, de las correspondencias visuales que Internet ofrece –como archivo que es, de dimensiones inasibles–, nos habla de la posibilidad de un conocimiento generado por coincidencias algorítmicas. Sin embargo, la otra cara de esta generación de conocimiento se refiere a ese proceso de identificación de patrones que no está mediado por humanos sino por redes neurales, entrenadas de acuerdo a criterios seleccionados por seres humanos para encontrar información (que ya conocen previamente) en una masa de data ininteligible. Por ejemplo, ver abajo cómo una red desarrollada por Google, entrenada con imágenes de animales, puede ver rostros animales por doquier en una imagen del cielo.

Red desarrollada por Google

Red desarrollada por Google

El hecho de “forzar” interpretaciones automatizadas guiadas por sesgos y omisiones humanas constituye una implicación peligrosa de la inteligencia artificial. Se puede prestar, por ejemplo –y este es un caso real dentro de Google–, a que los algoritmos de identificación de imagen entrenados principalmente con rostros de personas blancas cataloguen erróneamente los rostros de personas afro-descendientes. Este mismo riesgo, extrapolado a sistemas de vigilancia o de regulación ambiental, entre otros, puede desembocar en la proliferación de inteligencias artificiales –y por lo tanto, procesos automatizados– que “asuman” posturas racistas o cometan errores de juicio que conduzcan a desastres de gran escala.

Más allá de las ventajas y desventajas prácticas del reconocimiento automatizado, indica el artista Trevor Paglen (2016) en su artículo para The New Inquiry, Invisible Images (Your Pictures Are Looking at You)”:

El punto es que, si queremos entender el mundo invisible de la cultura visual de máquina a máquina, debemos desaprender cómo mirar como humanos. Debemos aprender a ver un universo paralelo compuesto de activaciones, keypoints, eigenfaces, transformaciones, clasificaciones, training sets, y similares. Pero no es tan sencillo como aprender un vocabulario distinto. Los conceptos formales contienen asunciones epistemológicas, que a su vez tienen consecuencias éticas. Los conceptos teóricos que utilizamos para analizar la cultura visual son profundamente engañosos cuando se aplican al panorama de las máquinas, lo que produce distorsiones, grandes puntos ciegos, e interpretaciones inmensamente erradas.

Con I’m Google, la cuidadosa curaduría de Dina Kelberman ha logrado confundir a ciertos espectadores: ¿Es la “mirada” de un algoritmo o la de un ser humano? Detrás de la hermosa fluidez de su selección, Kelberman ha jugado a confundir su propia identidad creadora con la de un artificio. También ha cuestionado la necesidad de intervenir o modificar las imágenes para hacer arte a partir de ellas, pues más allá de interrogar el proyecto bajo conceptos del collage o del arte de apropiación, el principal valor de I’m Google podría radicar en el discurso que hila, en el diálogo que propicia entre “rimas” y referencias, e incluso en la manera en que hace suya la lógica de la base de datos: al experimentar el proyecto, nos devuelve la consciencia de la forma en que hemos asimilado esa manera particular de mirar –hipertextual, descontextualizada, infinita y redundante a la vez.

Para finalizar, quisiera referirme a Google Earth, lanzado en 2005 (para ser seguido, poco después, por la versión Google Sky). Google Earth es un programa que permite acceder a imágenes satelitales del planeta a través de una interfaz que se navega de manera intuitiva, utilizando el cursor para “arrastrar” la superficie de la Tierra y con la posibilidad de acercar la imagen hasta, en algunos casos, poder acceder a la vista a nivel de calle (Google Street View).

En su ensayo “On Google Earth, el investigador Mark Dorrian (2013) afirma que si es cierto que vivimos en la era de la imagen aérea (valorada por su espectacularidad y efecto cautivador –véanse, por ejemplo, las decenas de miles de posts bajo el hashtag #planeview en Instagram), Google Earth es uno de los principales fenómenos que han consolidado esta condición. Dorrian hace una especie de recuento sobre el lugar de la imagen aérea del planeta en la historia fotográfica reciente, y traza su salto a la consciencia colectiva hasta las imágenes obtenidas por las misiones espaciales Apollo, ampliamente difundidas. Pero, si bien Google Earth se presenta en primera instancia también como una “vista planetaria”, son muchas las diferencias entre la experiencia de mirar las imágenes de Apollo 17 y explorar este globo digital.

Imágenes bajo el tag #planeview en Instagram

Imágenes bajo el tag #planeview en Instagram

La icónica imagen conocida como “The Blue Marble” (o “la canica azul”), tomada desde Apollo 17 el 7 de diciembre de 1972. Fuente: nasa.gov

La icónica imagen conocida como “The Blue Marble” (o “la canica azul”), tomada desde Apollo 17 el 7 de diciembre de 1972.
Fuente: nasa.gov

La distinción más evidente: Google Earth es “más” que una imagen fotográfica, pues el programa es interactivo. Se puede mirar la Tierra desde cualquier ángulo, haciéndola rotar respecto a nuestra posición fija. Por otra parte, afirma Dorrian, la Tierra de Google Earth se ve muy distinta a la de las imágenes espaciales: “está fragmentada –espacial y temporalmente– en una gama de conjuntos de data geoespacial producida por satélites en órbita y dispositivos de captura de imágenes de más bajo nivel, que luego se acoplan y suturan digitalmente para formar la imagen global… no podemos estar bajo la ilusión que esta es una imagen ‘natural’”. En definitiva, la imagen del planeta que ofrece Google Earth no es creíble, pero es una representación suficientemente absorbente: según Dorrian, se nos ofrece un planeta completamente “buscable” (en inglés,”searchable”), sin nubes y sin obstrucciones, a disposición del usuario de manera, por supuesto, completamente artificial. Del mismo modo, el artificio de esta visión se hace evidente en zonas “censuradas”, pixeladas por petición u orden de gobiernos o individuos, y en zonas alejadas del territorio del “primer mundo digital”, cuya resolución es pobre y vistas a nivel de calle inexistentes.

La proliferación de imágenes aéreas, sean facilitadas por drones o por satélites, ha supuesto una re-configuración de la mirada humana en cuanto las imágenes que manejamos para visualizar nuestro propio planeta –para la mayoría de nosotros, la frontera de nuestra imaginación– corresponden a puntos de vista a los que nunca podremos acceder. Esto podría interpretarse como haber “asimilado” la visión mediada por las máquinas, pues son estas imágenes las que determinan la manera en que imaginamos la Tierra –y que, a su vez, poseen un peso simbólico particular: desde principios de los años 90, el cineasta alemán Harun Farocki exploró la relación entre tecnología, visión y violencia a través de obras que empleaban imágenes recogidas por sistemas de vigilancia, misiles y otras máquinas bélicas (bajo la premisa de “visibility machines), lo que remite a la estrecha relación de la imagen aérea con la industria militar. Por otra parte, además de suponer la normalización de la imagen aérea, Google Earth involucra al observador más que nunca: la imagen de la Tierra no permanece simplemente como un objeto de contemplación. Si en algún momento fue novedoso mirar imágenes satelitales de la Tierra en un cine IMAX, o reproducciones/interpretaciones de la forma del planeta en películas de ficción, ahora es posible manipular esa vista desde dispositivos individuales, navegando la superficie de la Tierra a placer y extrayendo, a su vez, capturas de esas imágenes. Como apunta Mark Dorrian, esta propiedad transforma la superficie de la Tierra en un medio, no solo virtualmente, sino literalmente: por ejemplo, turistas precavidos pueden utilizar la herramienta para visualizar de antemano una locación de Airbnb, o grandes marcas pueden realizar gigantescas campañas de publicidad “que pueden verse desde el espacio con Google Earth”.

Captura de unremembered_geography, proyecto que emplea imágenes de los Andes venezolanos tomadas de Google Earth

Captura de unremembered_geography, proyecto que emplea imágenes de los Andes venezolanos tomadas de Google Earth

Si bien no podemos –o hemos podido–, como indica Trevor Paglen, aprender a mirar como las máquinas y hablar de lo visual igual que dos programas pueden conversar entre sí, podemos comenzar a articular un vocabulario intermedio, comenzando por la superficie: las interfaces de Google Image Search y Earth como metáforas y, definitivamente, como esquemas de la manera en que consumimos la imagen fotográfica a partir de y dentro de ámbitos conectados en red, con las implicaciones políticas e interrogantes que esto suponga frente a nuestro concepto convencional de ver.

Referencias

Bain, M. (2015). Google says JLo is why we have image search. Quartz. Recuperado de https://qz.com/378934/google-says-j-lo-is-why-we-have-image-search/

Barber, S. (2014).  Dina Kelberman’s I’m Google. Art21. Recuperado de http://magazine.art21.org/2014/09/03/dina-kelbermans-im-google/#.WOqmTRIrLdR

Dorrian, M. (2013). On Google Earth. En M. Dorrian (Ed.), Seeing from Above: The Aerial View in Visual Culture (1), (pp. 209-304) London, US: I.B. Tauris.

Kelberman, D. I’m Google. Recuperado de http://dinakelberman.tumblr.com/

Malik, O. (2014). Weaving a very visual web. OM. Recuperado de  https://om.co/2014/12/10/weaving-a-very-visual-web/

Paglen, T. (2016). Invisible Images (Your Pictures Are Looking at You). The New Inquiry. Recuperado de https://thenewinquiry.com/invisible-images-your-pictures-are-looking-at-you/