Gilles Grenon est né à Chicoutimi. Il vit actuellement à Montréal. Il détient une maîtrise en communication de l’Université du Québec à Montréal et a parachevé un programme d’études supérieures spécialisées (D.E.S.S.) en arts, création et technologies de l’Université de Montréal. Il complète actuellement une maîtrise en musique, option composition et création sonore à la Faculté de musique de l’Université de Montréal. Il s’intéresse principalement aux arts numériques interactifs.
Gilles Grenon a présenté une performance collaborative avec l’artiste en arts visuels Mancy Rezaei au Festival Sonopixel le 23 avril 2024. Il a également performé au Festival Ultrasons le 22 avril 2022 et son film d’animation « Yi Ching, le livre des transformations » a été sélectionné pour l’événement Dérapages dans le cadre des Sommets du cinéma d’animation Festival international de Montréal le 12 mai 2022.
Performances
Palimpseste inversé
Un palimpseste est un manuscrit sur lequel un nouveau texte a été écrit, après effacement du texte primitif. L’idée de Palimpseste inversé était de suggérer un retournement de cette notion de palimpseste. Partir de l’art technologique pour revenir dans un contexte métaphorique à une sorte de révélation ou de réminiscence de l’original où quelque chose de caché ou effacé est ramené à la lumière.
Le problème à trois corps
Le problème à trois corps est évoqué dans la trilogie de science-fiction de Liu Cixin. Il représente l’impossibilité de prévoir les mouvements de trois corps célestes, les uns tournant autour des autres sous l’effet de leur mutuelle attraction.
Trois cubes sont suspendus à un mobile. Sur leurs faces apparaissent des marqueurs arUco qui servent de cible à un programme dans Unity qui détecte les coordonnées spatiales XYZ des marqueurs. Unity transmet les données par OSC à Max MSP qui les normalise avant de les retransmettre à Reaper. Les données XYZ affectent enfin les oscillateurs et filtres de pistes de modulaires TAL-NoiseMaker.
Musiques
Expérimentale
CHIME
Le radiotélescope fixe du projet CHIME (Canadian Hydrogen Intensity Mapping Experiment) enregistre les Fast Radio Bursts détectés par la mesure de l’hydrogène dans et au-delà de notre galaxie. Les Fast Radio Bursts sont des impulsion radio transitoire d’une durée allant de moins d’une milliseconde à quelques secondes émettant autant d’énergie que le soleil en émet en quelques jours. Ce phénomène n’est aujourd’hui toujours pas expliqué.
Cette exploration musicale exploite les données du catalogue 1 de CHIME enregistrées pendant un an, en les ramenant à une durée accélérée de 6 minutes. Par un processus de mappage, les fréquences des Fast Radio Bursts captées 400 à 800 MHz sont recalibrées et traitées à travers un algorithme polyphonique dans Max MSP. Les données ainsi transformées façonnent différents timbres et sonorités principalement en utilisant la synthèse de modulation de fréquence, popularisée en 1967 par John Chowning. Les positions originales de détection des Fast Radio Bursts dans les galaxies sont ensuite ramenées dans l’algorithme Max MSP à l’orientation spatiale gauche/droite.
Étude musicale sur une trame visuelle de source inconnue
À la course…
Films expérimentaux
Yi Ching, le livre des transformations
Le Yi Jing, apparu il y a 3500 années, était un outil de divination utilisant des baguettes de bois. Au fil du temps, il est devenu la base d’une pensée philosophique et morale qui tentait de comprendre le monde et ses transformations. Celles-ci étaient représentées dans les hexagrammes qui figuraient le déroulement des événements selon des catégories dynamiques.
La création de 485 images a été nécessaire pour afficher les symboles du Yin Yang, les trigrammes et les hexagrammes. Ces images ont été générées avec du code Python écrit pour ce projet en utilisant OpenCV et Numpy. Ces images ont ensuite été montées dans Premiere Pro. Les pièces musicales ont été générées à l’aide d’algorithmes d’intelligence artificielle Amper Music de la société New-Yorkaise spécialisée en génération de musique.
4500 images en IA
Ce projet est basé sur un algorithme d’intelligence artificielle qui utilise des images de référence (ici des images « texture » de Montréal) et qui attribue leurs caractéristiques « statistiques » au contenu d’autres images en vue de transformer ces dernières dans le style des images de référence. Des modèles de « style » sont ainsi produits, ce sont des réseaux de neurones artificiels créés à partir de plusieurs couches d’analyse des pixels, dix-neuf couches dans le cas du modèle VGG19 utilisé pour ce travail. Il y aura un traitement appliqué par image, avec un impact plus ou moins important selon le nombre d’itérations effectuées.
Mon salon
Je propose d’amener le spectateur à voir un espace imaginaire à travers les yeux d’une caméra stéréo et à recréer cet espace. Dans la première partie du vidéo, je surimpose les images de la réalité en 2D à celles d’un numérisation 3D de l’espace transposé dans les pixels en calculs de distance codés selon les couleurs. J’ajoute rapidement une autre couche visuelle où des arêtes de polygones sont générés pour reconstruire un espace 3D. Dans une deuxième partie, je suggère un état « nébuleux », se référant à une espèce de cosmogonie représentant un état de reconstruction des données acquises à partir de forces antagonistes, l’organisation et le désordre, pour recréer un petit monde, mon salon imaginaire, avec une apparence de réalité, mais une réalité altérée.
À la manière de…
Ce projet s’appuie sur un algorithme d’intelligence artificielle basé sur le transfert de style. Les images à modifier proviennent d’une vidéo d’une minute d’un caniveau lors d’une pluie découpé en 1800 images. J’ai ensuite utilisé six images de peintures connues, modifiées dans des cycles de 10 secondes et réexportées en 1800 images du « style » : • La Guernica de Pablo Picasso • Composition VIII de Wassily Kandinsky • Nénuphars et Pont japonais de Claude Monet • Le Cri d’Edvar Munch • La Nuit étoilée de Vincent van Gogh • La Grande Vague de Kanagawa de Hokusai
Projects
Braccio ++ (Arduino, Max MSP)
The project consists of generating the movements of an Arduino Braccio + robotic arm. This project lies between engineering and art. The gesture of design is the most striking aspect of the project as well as the “mechanical” versus “artisanal” duality resulting from this movement. The gesture is dependent on a motorized mechanical impulse, but it can only recall the human gesture by its analogy with human joints (shoulders, elbows, wrists, etc.) and the creativity aspect. The idea is to compare the mechanical aspect with industrial type motor noises with that of the noise of the brush rubbing on the paper.
The Braccio++ will use a brush to ink a paper with random movements coded in an “Arduino Nano RP2040” microcontroller. The movement list is sent from Max MSP to the Arduino via an OSC connection. Piezo microphones will capture the noises of the motors and the brush on the paper using a Zoom H5 in “Audio interface” mode. The noises collected will be processed with Max MSP with simple effects of echoes and reverberations.
Hypermediacity (Pure data and Processing)
Inspired by a text by Katherine Hayles (« The Transformation of Narrative and the Materiality of Hypertext », 2001) and representing it by splitting it into fragments which appear randomly on a screen and descend until they disappear at the bottom of this latest. At this moment, a letter chosen at random in each sentence that disappears triggers a sending of coordinates from Processing to Pure Data with the OSC protocol where a sound system is produced. I come back to the representation of events, occurrences in time a space of “hypermediacity”.
Montreal crime (Unity and Max MSP)
The purpose of this research-creation project is to question the use of data/metadata and their visualization by including them in a representation diverted from the usual infographics. The representation of statistics in connection with the concept of an open city is a pretext for offering an experience to spectators by emphasizing the importance of rendering. This is an exploration of open data made available to citizens in the concept of a smart city aimed at exploring the representation of data, their categorization, their scrambling and their positioning in the territory.
A data file lists criminal acts, their categories, including their date and location in latitude and longitude coordinates. Another file contains the coordinates of the polygons of the police district stations. Greenwich is the zero point of longitudes and latitudes in the real world and also in the program of this project. The first type of object will be the criminal act (blue spheres) appearing in geographic coordinates over the days and according to a random altitude; the second type of object (red rectangular parallelepipeds) will represent the layout of the geographical perimeter of the sectors of the police neighborhood stations.
Carousel (Processing)
The project interprets the relationship between a space location and temporal occurrences. It evokes the cone of light, a notion of special relativity explained by the mathematician Hermann Minskowski at the beginning of the twentieth century that represents the space-time in the past and the possible future for an observer at a time to a specific point.
What is proposed in these dimensional evolutions, it is to find at repeated intervals the photographs intact, but oscillating between the reality of the landscape elements present in the photographs towards the effects of superimpositions, cuts and geometric shear crisscrossed. We are then spectators of landscape transformations caused by nature (weather conditions, sunlight, reflections on the ground, on rain or snow) and by the urban human presence (motor vehicles, runners, walkers, reconstruction of the kiosk) regardless of the photographer’s action. The eye is returned to the centre of the work. The everydayness of images then explodes with their manipulation by computer coding. We are witnessing the reappropriation of the cosmic dimension of our daily lives.
Carousel project, photographs
A sample of photographs taken between 2015 and 2019 on Olmsted Road in Mount Royal Park.