Técnicas (en orden cronológico) para llevar a cabo el proyecto:
La primer tarea a llevar a cabo fue la recolección de imágenes. Para lograrlo se utilizó, por un lado: python, como herramienta para la búsqueda y descarga de imágenes provinientes de Google imágenes. Este método fue útil sobre todo para las imágenes que hacen referencia a conversaciones de WhatsApp u otras formas de mensajería de texto, cuya temática era "conversaciones de amor".
capturas del notebook de python que permitió la búsqueda y descarga de imágenes pertenecientes a google imágenes de forma masiva. dicha búsqueda se realizaba aisgnandole algunas etiquetas o palabras clave como "conversación whatsapp amor" o "mensajes de texto amor".
otra manera de lograr la recolección de imágenes fue manualmente buscando en redes sociales o prestando atención, haciendo una mirada activa a las imágenes que aparecían casualmente en el feed de dsitintas redes como Facebook, Instagram, etc.
también muchas de las capturas de conversaciones fueron sacadas del blog https://www.tumblr.com/blog/view/conversacioneswhatsapp
la última técnica fue la empleada a partir de la colaboración de Lucas Sosa. la cual volvió mucho más rápida y digerible la búsqueda de imágenes particulares en la red social Twitter. facilitándome a través de un scrap de usuarios específicos que yo le pedí, en un archivo .cvs el cual contenía toda la siguiente información de aquél usuario: todos los tweets (texto e imágenes), links a las imágenes subidas, cantidad de retweets y me gustas, fecha y horario de publicación.

El segundo paso a hacer fue utilizar nuevamente python como herramienta, pero esta vez utilizando la tecnología OCR (reconocimiento óptico de caracteres) para lograr extraer el texto de todas las imágenes que lo tuvieran.
Es decir, a través de un notebook, subir una imágen con texto en su contenido y recibir en formato de texto lo que aquella imágen decía.
Con el fin de utilizar estos textos en otro código (también de python), el cual a través de una herramienta Text to Speech, leía aquellos textos con una voz sintetizada digitalmente y generaba automática un archivo .mp3 con la lectura de cada texto.
capturas del notebook de python para OCR.
captura del notebook de python para text to speech
para todas aquellas imágenes que no tenían texto en su contenido se generó un audio determinado. más específicamente un tono sintetizado digitalmente usando Pure Data. cada tono estaba compuesto por distintas frecuencias que hacían al sonido algo disonante. con una amplitud alta, para intentar generar una incomodidad comparable a aquella producida por el mensaje de las imágenes (sobre todo aquellas que representaban mensajes de odio).
captura del patch de PD utilizado para crear estos tonos
una vez recolectadas todas las imágenes y todos los audios a utilizar, se hizo un montaje en Adobe Premiere. poniendo un grupo de imágenes ,aquellas que representan mensajes de odio compartidos públicamente en redes sociales, en un lado de la pantalla. Y el otro grupo, aquellas que contienen capturas de conversaciones "románticas" o de "amor" (la idea de "conversaciones de amor" fue dejada a definir por internet, lo que llevó a un resultado interesante ya que en muchos de estos mensajes pueden leerse intenciones tal vez violentas, respondiendo a una idea de amor o cariño cuestionable) del otro lado. con el fin de ir simulando la puesta en escena de dos pantallas proyectando estas imágenes simultáneamente.
en el proyecto de Premiere se calculó que una pantalla reproduzca imágenes sin la lectura del mensaje mientras la otra lo hace, para que no haya superposición de voces.
captura del proyecto de Adobe Premiere
como paso final se grabaron ambos videos, cada uno en un cassette VHS distinto. Para ser entonces reproducidos (simultaneamente) en dos VCR distintas, las cuales va cada una su pantalla correspondiente.