Somos observados y en cierta medida convertidos en objetos de consumo por los códigos que procesan las imágenes y estructuran diferentes perfiles, estandarizados por los algoritmos, que al igual que el boceto de una pintura correspondiente a su autor, el código binario también traza. Un diseño conforme a unos objetivos que buscan un mapeo de perfiles precisos y detallados. El paso de ser observados por los algoritmos a la conciencia de lo que somos, y por consiguiente nuestra capacidad de decisión, supone un notable desafío.
La iconicidad ha sido una característica desarrollada a la largo de la historia del arte visual en sus siglos de imagen analógica. Ver imágenes era relativamente sencillo, aunque su comprensión exige cierta alfabetización. Las imágenes predigitales señalan con alguna precisión el parecido entre la representación y el objeto que representan, es decir, establecen una correspondencia entre la imagen y su referente. Dicho lo anterior, es obvio que según el autor y la corriente o movimiento artístico, este referente será más o menos indicativo. De este modo el beso de Rodin tendrá más iconocidad que el de Klimt, y éste menos que el de Brancusi, para llegar a una menor iconicidad con el beso de Picasso.
Conviene recordar que toda tecnología es un producto humano, si bien es muy cómodo sumarse a la corriente catastrofista que en estos tiempos tanto animan, debiéramos recordar que las teorías conductistas hace muchas décadas que han sido superadas. Somos bastante más que la respuesta a un determinado estímulo
Este grado de iconicidad ha constituido uno de los elementos más sustanciales en el análisis de la imagen analógica, entendida como representación. O sea, la imagen se parece a su referente. Más tarde, llegó la imagen sintética, por lo que «estamos ante una física sin objetos, una biología sin seres humanos, una química sin sustancias. El mundo real es analizado a través de su paralelo virtual», acierta Vallverdú en su apreciación. De un modo reciente, se recuerda en el metaverso, donde mirarnos en la pantalla no es suficiente, ahora tenemos barra libre para experimentar lo cotidiano o lo extraordinario en un universo inmersivo paralelo.
La decisión de lo que es o no es noticia, así como el modo de destacarlo, se decide en buena medida en el laboratorio de los algoritmos. El Big Data organiza la captación y procesamiento de los datos en la Web, que desde pertinentes fórmulas se cruzan y combinan. Estas interacciones numéricas se producen con parámetros que albergan códigos de programación, definición de funciones que secuencian las tareas, un ejemplo muy reciente lo tenemos en Cómo los medios se inventan lo que pensamos, así se observa que la prevalencia de términos como racismo, sexismo, islamofobia, implican un buen paquete de prejuicios, que no son producto de la casualidad.
Un hecho irrelevante para la mayoría, lejano para la mayoría, incluso superficial, podrá ser noticia si es debidamente tratado y proyectado en las plataformas habilitadas para ello con los algoritmos oportunos. Algo muy parecido a lo que cada uno hace en su cocina. Unos precisos ingredientes, unos tiempos de temperatura determinados, un orden, unas cantidades, un tiempo, son los elementos que contienen un resultado culinario. Si queremos todos los domingos paella, solo hay que ejecutarla. Así ocurre con los algoritmos, fórmulas que se interpretan, protocolos que se ejecutan en el correspondiente programa.
En la era analógica, la lectura consistía en la decodificación de imágenes. Una práctica con un doble ejercicio de observación desde el rastreo del ojo, que describía lo que veía, hasta la interpretación de lo que sugería. Allí estaba la imagen delante, y se conocían sus códigos de lectura. Con el software la cosa cambia. Sin un soporte determinado, se exige una comprensión para entender la Web, un ecosistema audiovisual en el que estamos inmersos y en el que se activa el internet de las cosas. Con lo cual, y no es baladí señalarlo, la distancia entre la mirada y la obra ha desaparecido.
Manovich, propone entender la “representación” como conversión en datos, de modo que su comprensión derive en conocimiento. Aspectos como el código digital, la visualización de datos, la búsqueda de la información más allá de los primeros pantallazos que proporciona Google y otros motores de búsqueda, los bots, el aprendizaje automático, son partes ineludibles de este entendimiento. Se trata de un escenario ubicuo de conexión, de relación entre usuarios y medios sociales.
El software ha reemplazado muchas tecnologías físicas, mecánicas, electrónicas propias del siglo XIX, que facilitaban el almacenaje, distribución y acceso a la información, productos y servicios. No iba despistado Manovich cuando escribió su clásico “El software toma el mando”, en el que argumenta que mientras la atención se reclama desde el aspecto exterior de las máquinas digitales, lo relevante son los procesos que garantizan su funcionamiento.
La llamada caja negra existe, opera como máquina computacional. Esto propicia teorías conspiranoicas y conclusiones fatalistas, hasta llegar a aquellos “sonámbulos tecnológicos” que aparecen en algunos discursos de analistas políticos como Langdon Winer. O la visión de Adam Greenfield en su “Radical Technologies”, donde advierte alarmado sobre la atomización social, que recluye al individuo en las pantallas y entrega cándidamente su privacidad a los políticos y las grandes corporaciones.
Conviene recordar que toda tecnología es un producto humano, si bien es muy cómodo sumarse a la corriente catastrofista que en estos tiempos tanto animan, debiéramos recordar que las teorías conductistas hace muchas décadas que han sido superadas. Somos bastante más que la respuesta a un determinado estímulo. Afortunadamente el ser humano es complejo y contradictorio, su pensamiento y su conducta obedecen a un sinfín de variables, donde el azar también está invitado para decidir un tipo u otro de comportamiento.
A su vez la vida sigue. Las rutinas discurren mandando un email, consultando el whatsapp, editando un texto y ejecutando un excel, redactando un blog, diseñando una web, consultando la información en mi lista de favoritos, subiendo una foto, o un vídeo. Compramos, leemos, pensamos, conversamos, convivimos mediante una interface que no comprendemos porque es invisible. Confieso que cuando me enteré, hace unos años, de que Google había desplegado un ejército de fotógrafos por el Amazonas para atrapar millones de imágenes de sus selvas, no entendí que era el modo de “apropiarse” para siempre de esas tierras.
El software como categoría teórica es opaca para la mayoría de los ciudadanos, para muchos artistas, empresarios, políticos y académicos. Las redes sociales, los programas, las aplicaciones, solo son resultados del software. Jenkins invita a que miremos los algoritmos, en vez de que sean “solo ellos” los que nos estén mirando. Howard Rheingold en “Tools for Thought” (1985), ya indicaba que los ordenadores y el software no son solo tecnología, son un nuevo medio (meta), que obliga a pensar e imaginar de otra manera.
La datificación es definida por Cukier, K.N y Mayer-Schoenberger (2013) como la conversión en datos de los diferentes aspectos que rodean la vida. El registro y captura de los datos conduce a unos estándares de homogeneización para agruparlos, que se recogen en repositorios donde se almacenan en la nube para activar su procesamiento.
Algunas de las marcas mediáticas más conocidas incorporan estos procesos de trabajo con la ingente cantidad de datos. Como ocurre en Europa con el The Guardian, o el Data Desk de Los Angeles Times o La Nación, en Argentina. El director del Departamento de Nuevas Tecnologías Interactivas de The New York Times entiende que el ‘periodismo de datos’ comprende un conjunto de herramientas, técnicas y ángulos diferentes para narrar historias.
El analfabetismo digital es un grave problema. Aunque existen herramientas para filtrar y censurar la información, no se comprende donde acaba la publicidad y donde termina la información, tampoco se sabe contrastar una noticia para localizar sus fuentes y distinguir lo falso de lo verdadero, o no se diferencia la opinión de los hechos. O admitimos y toleramos que la publicidad hipersegmentada se convierta en un asaltador de caminos a lo largo de nuestra navegación por la red. O se impone la cultura de la cancelación en las redes sociales, aunque se aceptan determinados discursos de odio y otros no. O se asume que la libertad de expresión es un terreno acotado solo para los afines.
Incluso se dan como ciertas la conclusiones de un determinado estudio elaborado por unos “expertos”, del cual ni se conoce su financiación, ni se ha tomado la molestia de cruzar los datos con otras investigaciones. La paradoja es que la víctima de esta arquitectura informacional es la libertad de expresión. Antes se quemaban los libros, hoy se compran los medios y sus plataformas, con un software al servicio de quien paga, de quien tiene ocupa el lugar debido en la red clientelar de turno.
Cuando Giovanni Sartori publicó su célebre “Homo videns”, se dio por hecho que el lector del libro es alguien inteligente, porque la lectura exige atención y esfuerzo, y es cierto. Pero la capacidad de abstracción no es patrimonio exclusivo de la lectura, un buen visionado también exige atención y precisa referentes para entender lo que se tiene delante. Pero si lo que tenemos delante desapareció porque ya estamos inmersos en otro ecosistema repleto de símbolos, que eso son los algoritmos cuando llegan a la caja negra de la computación, mayor motivo para revisar nuestras lecturas y reflexión.
Nota. Algunos fragmentos de este artículo recogen extractos del capítulo del autor, actualizado y revisado “Una mirada nómada de la educación y de la comunicación” de El algoritmo de la incertidumbre (2021) publicado en Gedisa Editorial.
Foto: Brett Jordan.