Accueil

Gilles Grenon est né à Chicoutimi. Il vit actuellement à Montréal. Il détient une maîtrise en communication de l’Université du Québec à Montréal et a parachevé un programme d’études supérieures spécialisées (D.E.S.S.) en arts, création et technologies de l’Université de Montréal. Il complète actuellement une maîtrise en musique, option composition et création sonore à la Faculté de musique de l’Université de Montréal. Il s’intéresse principalement aux arts numériques interactifs.

Gilles Grenon a présenté une performance collaborative avec l’artiste en arts visuels Mancy Rezaei au Festival Sonopixel le 23 avril 2024. Il a également performé au Festival Ultrasons le 22 avril 2022 et son film d’animation « Yi Ching, le livre des transformations » a été sélectionné pour l’événement Dérapages dans le cadre des Sommets du cinéma d’animation Festival international de Montréal le 12 mai 2022.

Performances

Palimpseste inversé

Salle Serge-Garant (Montréal), le 23 avril 2024

Un palimpseste est un manuscrit sur lequel un nouveau texte a été écrit, après effacement du texte primitif. L’idée de Palimpseste inversé était de suggérer un retournement de cette notion de palimpseste. Partir de l’art technologique pour revenir dans un contexte métaphorique à une sorte de révélation ou de réminiscence de l’original où quelque chose de caché ou effacé est ramené à la lumière.

Le problème à trois corps

Salle Claude-Champagne (Montréal), le 12 mai 2022

Le problème à trois corps est évoqué dans la trilogie de science-fiction de Liu Cixin. Il représente l’impossibilité de prévoir les mouvements de trois corps célestes, les uns tournant autour des autres sous l’effet de leur mutuelle attraction.

Trois cubes sont suspendus à un mobile. Sur leurs faces apparaissent des marqueurs arUco qui servent de cible à un programme dans Unity qui détecte les coordonnées spatiales XYZ des marqueurs. Unity transmet les données par OSC à Max MSP qui les normalise avant de les retransmettre à Reaper. Les données XYZ affectent enfin les oscillateurs et filtres de pistes de modulaires TAL-NoiseMaker.

Musiques

Expérimentale

CHIME

Le radiotélescope fixe du projet CHIME (Canadian Hydrogen Intensity Mapping Experiment) enregistre les Fast Radio Bursts détectés par la mesure de l’hydrogène dans et au-delà de notre galaxie. Les Fast Radio Bursts sont des impulsion radio transitoire d’une durée allant de moins d’une milliseconde à quelques secondes émettant autant d’énergie que le soleil en émet en quelques jours. Ce phénomène n’est aujourd’hui toujours pas expliqué.

Cette exploration musicale exploite les données du catalogue 1 de CHIME enregistrées pendant un an, en les ramenant à une durée accélérée de 6 minutes. Par un processus de mappage, les fréquences des Fast Radio Bursts captées 400 à 800 MHz sont recalibrées et traitées à travers un algorithme polyphonique dans Max MSP. Les données ainsi transformées façonnent différents timbres et sonorités principalement en utilisant la synthèse de modulation de fréquence, popularisée en 1967 par John Chowning. Les positions originales de détection des Fast Radio Bursts dans les galaxies sont ensuite ramenées dans l’algorithme Max MSP à l’orientation spatiale gauche/droite.

Reference: arXiv:2106.04352 [astro-ph.HE]

https://doi.org/10.48550/arXiv.2106.04352

De tout horizon

Cinématique

Médiéval

Ambiance

Étude musicale sur une trame visuelle de source inconnue

À la course…

Films expérimentaux

Yi Ching, le livre des transformations

Le Yi Jing, apparu il y a 3500 années, était un outil de divination utilisant des baguettes de bois. Au fil du temps, il est devenu la base d’une pensée philosophique et morale qui tentait de comprendre le monde et ses transformations. Celles-ci étaient représentées dans les hexagrammes qui figuraient le déroulement des événements selon des catégories dynamiques.

La création de 485 images a été nécessaire pour afficher les symboles du Yin Yang, les trigrammes et les hexagrammes. Ces images ont été générées avec du code Python écrit pour ce projet en utilisant OpenCV et Numpy. Ces images ont ensuite été montées dans Premiere Pro. Les pièces musicales ont été générées à l’aide d’algorithmes d’intelligence artificielle Amper Music de la société New-Yorkaise spécialisée en génération de musique.

4500 images en IA

Ce projet est basé sur un algorithme d’intelligence artificielle qui utilise des images de référence (ici des images « texture » de Montréal) et qui attribue leurs caractéristiques « statistiques » au contenu d’autres images en vue de transformer ces dernières dans le style des images de référence. Des modèles de « style » sont ainsi produits, ce sont des réseaux de neurones artificiels créés à partir de plusieurs couches d’analyse des pixels, dix-neuf couches dans le cas du modèle VGG19 utilisé pour ce travail. Il y aura un traitement appliqué par image, avec un impact plus ou moins important selon le nombre d’itérations effectuées.

Mon salon

Je propose d’amener le spectateur à voir un espace imaginaire à travers les yeux d’une caméra stéréo et à recréer cet espace. Dans la première partie du vidéo, je surimpose les images de la réalité en 2D à celles d’un numérisation 3D de l’espace transposé dans les pixels en calculs de distance codés selon les couleurs. J’ajoute rapidement une autre couche visuelle où des arêtes de polygones sont générés pour reconstruire un espace 3D. Dans une deuxième partie, je suggère un état « nébuleux », se référant à une espèce de cosmogonie représentant un état de reconstruction des données acquises à partir de forces antagonistes, l’organisation et le désordre, pour recréer un petit monde, mon salon imaginaire, avec une apparence de réalité, mais une réalité altérée.

À la manière de…

Ce projet s’appuie sur un algorithme d’intelligence artificielle basé sur le transfert de style. Les images à modifier proviennent d’une vidéo d’une minute d’un caniveau lors d’une pluie découpé en 1800 images. J’ai ensuite utilisé six images de peintures connues, modifiées dans des cycles de 10 secondes et réexportées en 1800 images du « style » :
• La Guernica de Pablo Picasso
• Composition VIII de Wassily Kandinsky
• Nénuphars et Pont japonais de Claude Monet
• Le Cri d’Edvar Munch
• La Nuit étoilée de Vincent van Gogh
• La Grande Vague de Kanagawa de Hokusai

Projets 2

Braccio ++ (Arduino, Max MSP)

Le projet consiste à générer les mouvements d’un bras robotique Arduino Braccio +. Ce projet se situe entre l’ingénierie et l’art. Le geste du dessein est l’aspect le plus marquant du projet ainsi que la dualité « mécanique » versus « artisanale » découlant de ce mouvement. Le geste est tributaire d’un impulsion mécanique motorisé, mais il ne peut que rappeler le geste humain par son analogie avec les articulations humaines (épaules, coudes, poignets, etc.) et l’aspect créativité. L’idée est de mettre en parallèle l’aspect mécanique avec des bruits de moteurs de type industriels avec celui du bruit du frottement du pinceau sur le papier.

Le Braccio ++ va utiliser un pinceau pour encrer un papier avec des mouvements aléatoires codés dans un microcontrôleur « Arduino Nano RP2040 ». La liste des mouvements est envoyée à partir de Max MSP vers l’Arduino via une connexion OSC. Des microphones Piezo vont saisir les bruits des moteurs et du pinceau sur le papier à l’aide d’un Zoom H5 en mode « Audio interface ». Les bruits recueillis qui seront traités avec Max MSP avec des effets simples d’échos et de réverbérations.

Hypermédiacité (Pure data et Processing)

S’inspirant d’un texte de Katherine Hayles (« The Transformation of Narrative and the Materiality of Hypertext », 2001) et le représentant en le scindant en fragments qui apparaissent au hasard sur un écran et descendent jusqu’à disparaître au bas de ce dernier. À ce moment, à une lettre choisie au hasard dans chaque phrase qui disparait déclenche un envoi de coordonnées de Processing vers Pure Data avec le protocole OSC où une sonorisation est produite. Je reviens à de représentation d’événements, des occurrences dans le temps dans des espaces dans un espace « d’hypermédiacité».

Carrousel (Processing)

Le projet interprète la relation entre un lieu spatial et des occurrences temporelles. Il évoque le cône de lumière, une notion de la relativité restreinte expliquée par le mathématicien Hermann Minskowski au début du XXe siècle qui représente l’espace-temps dans le passé et le futur possible pour un observateur à un moment à un point précis.

Ce qui est proposé dans ces évolutions dimensionnelles, c’est de retrouver à des intervalles répétés les photographies intactes, mais oscillantes entre la réalité des éléments paysagers présents sur les photographies vers des effets de superpositions, de coupures et de cisaillement géométriques entrecroisés. Nous sommes alors spectateurs des transformations du paysage causés par la nature (conditions météorologiques, lumière du soleil, reflets sur la terre, sur la pluie ou sur neige) et par la présence urbaine humaine (véhicules automobiles, coureurs, marcheurs, reconstruction du kiosque) indépendamment de l’action du photographe. L’œil est remis au centre de l’œuvre. La quotidienneté des images explose alors avec leur manipulation par le codage informatique. Nous assistons à la réappropriation de la dimension cosmique de nos vies quotidiennes.

Projet carrousel, photographies

Échantillon de photographies prises entre 2015 et 2019 sur le chemin Olmsted du parc du Mont-Royal .