Interactive Machine Learning for Musicians and Artists
Refund policy
Contact the organizer to request a refund.
Eventbrite's fee is nonrefundable.
This workshop facilitates technical and personal skills in users and potential users of machine learning in creative contexts
About this event
[Le français suit]
9-hours of training by Gabriel Vigliensoni
April 30th, May 7th, May 14th
From 10am - 1pm
In-person
The Interactive machine learning for musicians and artists workshop aims at developing technical and personal skills in users and potential users of machine learning in creative contexts in general, and sound and music in particular.
*This workshop will be held in English*
With the financial participation of the Fonds de Recherche du Québec - Société et Culture (FRQSC)
Objectives
Understanding of the machine learning paradigm and human agency in creative AI.
At the end of the workshop, participants will have a basic understanding of the machine learning paradigm, what are the components of the ML pipeline, how it can be used in generative contexts, and where is the human agency in the collaborative, creative process with the machine.
Dissemination of open-source machine learning tools for music-making and performance.
At the end of the workshop, participants will be aware of freely available tools for human-computer interaction and sound and music-making using ML (e.g., Wekinator, MIMIC platform, learner.js, AudioStellar, MusicVAE, R-VAE, Magenta Studio, DDSP, and Jukebox). Users and potential users will be capable of differentiating and selecting the appropriate tools for their creative contexts.
Community building among creative practitioners using machine learning techniques.
Creative AI, collaboration, and co-creation with machines are open topics that need a multidisciplinary discussion. This workshop will help to establish networks and relationships between participants by facilitating space and time for collaborative reflection on the opportunities, wonders, biases, and limitations of AI and ML tools in creative practice.
Sharing, exchange, and dissemination of research-creation methodologies using machine learning tools.
Attendees of the workshop will be introduced to the full cycle of a research creation project using ML, from conception, to design, implementation, and delivery. They will learn about the creative process followed; the strategies addressing the biases introduced by datasets and data structures; and the choice of ML techniques. The discussion will raise awareness of problems when using ML tools in artistic practice.
Schedule
Day 1
In this session, participants will have an overview of what interactive machine learning is and how it can be used to quickly make new real-time interactive systems, such as new musical instruments, sound visualizations, etc. I will describe at a high level how supervised learning algorithms permit to create models by supplying data instead of writing code. We will apply supervised machine learning to learn models for gesture or activity recognition and for mapping input sensor data directly to sound synthesis or control. Participants will use Wekinator to apply interactive machine learning to create new gestural controllers and musical instruments. I will supply example code in several common music environments (e.g., Max/MSP, PD, ChucK, SuperCollider), which can easily be modified by participants to build their own musical interactions. I will also show how to grab sensor data from common input devices and use it to drive this software.
Day 2
In this session, participants will have an overview of what unsupervised machine learning is and how it can be used in sound exploration and music making. I will describe at a high level how unsupervised learning algorithms can group similar datapoints (e.g., sound snippets). I will describe a few online, collaborative sound databases where people share recorded sound clips under Creative Commons licenses. Finally we will review a full research creation project where supervised and unsupervised learning techniques and tools were put into practice to create a musical interface and piece. Participants of the workshop will use AudioStellar to apply unsupervised machine learning to cluster a large number of sound snippets onto a sound space. I will also show how to manipulate the AudioStellar sound space using control messages.
Day 3
In this hands-on session, we will integrate supervised and unsupervised machine learning techniques and tools into a creative project based on human gestures and sound objects provided by attendees of the workshop of collected from available sound databases. At the end of the session, participants will showcase their projects.
///////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////
9 heures de formation par Gabriel Vigliensoni
30 avril, 7 mai, 14 mai
De 10h à 13h
En personne
L'atelier d'apprentissage automatique interactif pour les musiciens et les artistes vise à développer les compétences techniques et personnelles des utilisateurs et des utilisateurs potentiels de l'apprentissage automatique dans des contextes créatifs en général, et dans le domaine du son et de la musique en particulier.
*Cet atelier se déroulera en anglais*
Avec la participation financière du Fonds de Recherche du Québec - Société et Culture (FRQSC)
Objectifs
Compréhension du paradigme de l'apprentissage automatique et de l'agence humaine dans l'IA créative.
À la fin de l'atelier, les participants auront une compréhension de base du paradigme de l'apprentissage automatique, des composants du pipeline de l'apprentissage automatique, de la manière dont il peut être utilisé dans des contextes génératifs, et de la place de l'agence humaine dans le processus collaboratif et créatif avec la machine.
Diffusion d'outils d'apprentissage automatique à code source ouvert pour la création et l'interprétation musicales.
À la fin de l'atelier, les participants connaîtront les outils disponibles gratuitement pour l'interaction homme-machine et la création sonore et musicale à l'aide de l'apprentissage automatique (par exemple, Wekinator, la plateforme MIMIC, learner.js, AudioStellar, MusicVAE, R-VAE, Magenta Studio, DDSP et Jukebox). Les utilisateurs et les utilisateurs potentiels seront capables de différencier et de sélectionner les outils appropriés à leurs contextes créatifs.
Création d'une communauté de praticiens créatifs utilisant des techniques d'apprentissage automatique.
L'IA créative, la collaboration et la co-création avec des machines sont des sujets ouverts qui nécessitent une discussion multidisciplinaire. Cet atelier aidera à établir des réseaux et des relations entre les participants en facilitant l'espace et le temps pour une réflexion collaborative sur les opportunités, les questions, les biais et les limites de l'IA et des outils ML dans la pratique créative.
Partage, échange et diffusion de méthodologies de recherche-création utilisant des outils d'apprentissage automatique.
Les participants à l'atelier seront initiés au cycle complet d'un projet de recherche-création utilisant l'apprentissage automatique, de la conception à la livraison en passant par le design et la mise en œuvre. Ils découvriront le processus créatif suivi, les stratégies permettant de traiter les biais introduits par les ensembles de données et les structures de données, ainsi que le choix des techniques d'apprentissage automatique. La discussion permettra de sensibiliser les participants aux problèmes liés à l'utilisation d'outils ML dans la pratique artistique.
Programme
Jour 1
Dans cette session, les participants auront un aperçu de ce qu'est l'apprentissage automatique interactif et comment il peut être utilisé pour créer rapidement de nouveaux systèmes interactifs en temps réel, tels que de nouveaux instruments de musique, des visualisations sonores, etc. Je décrirai à un haut niveau comment les algorithmes d'apprentissage supervisé permettent de créer des modèles en fournissant des données au lieu d'écrire du code. Nous appliquerons l'apprentissage automatique supervisé pour apprendre des modèles pour la reconnaissance de gestes ou d'activités et pour mettre en correspondance les données des capteurs d'entrée directement avec la synthèse ou le contrôle du son. Les participants utiliseront Wekinator pour appliquer l'apprentissage automatique interactif afin de créer de nouveaux contrôleurs gestuels et instruments de musique. Je fournirai des exemples de code dans plusieurs environnements musicaux courants (par exemple, Max/MSP, PD, ChucK, SuperCollider), qui peuvent être facilement modifiés par les participants pour construire leurs propres interactions musicales. Je montrerai également comment récupérer des données de capteurs à partir de dispositifs d'entrée courants et les utiliser pour piloter ce logiciel.
Jour 2
Dans cette session, les participants auront un aperçu de ce qu'est l'apprentissage automatique non supervisé et comment il peut être utilisé dans l'exploration sonore et la création musicale. Je décrirai à un haut niveau comment les algorithmes d'apprentissage non supervisé peuvent regrouper des points de données similaires (par exemple, des extraits de sons). Je décrirai quelques bases de données sonores collaboratives en ligne où les gens partagent des extraits sonores enregistrés sous des licences Creative Commons. Enfin, nous passerons en revue un projet de création complet où des techniques et des outils d'apprentissage supervisé et non supervisé ont été mis en pratique pour créer une interface et une pièce musicale. Les participants à l'atelier utiliseront AudioStellar pour appliquer l'apprentissage automatique non supervisé afin de regrouper un grand nombre d'extraits sonores dans un espace sonore. Je montrerai également comment manipuler l'espace sonore d'AudioStellar à l'aide de messages de contrôle.
Jour 3
Dans cette session pratique, nous intégrerons des techniques et des outils d'apprentissage automatique supervisé et non supervisé dans un projet créatif basé sur des gestes humains et des objets sonores fournis par les participants à l'atelier ou collectés dans des bases de données sonores disponibles. À la fin de la session, les participants présenteront leurs projets.
Facilitator Bio:
Gabriel Vigliensoni is a music producer and scholar who combines practice-based research with extensive studies in sound recording, music production, human-computer interaction, music information retrieval, and machine learning to design new approaches to music composition. Currently, he is a postdoctoral research fellow in the Department of Computing at Goldsmiths University of London, where he is investigating the creative capabilities and affordances of machine learning for assisting musical composition.
///////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////
Bio du formateur:
Gabriel Vigliensoni est un producteur de musique et un universitaire qui associe la recherche pratique à des études approfondies sur l'enregistrement sonore, la production musicale, l'interaction homme-machine, la recherche d'informations musicales et l'apprentissage automatique pour concevoir de nouvelles approches de la composition musicale. Il est actuellement chercheur postdoctoral au département d'informatique de l'université Goldsmiths de Londres, où il étudie les capacités créatives et les possibilités de l'apprentissage automatique pour l'aide à la composition musicale.
Politique de remboursement :
Compte tenu de la nature de notre financement, ces billets sont des achats définitifs. N'hésitez pas à contacter lab@easternbloc.ca si vous avez des questions.
____________________________________________________________________________________________
Refund policy :
Given the nature of our funding, these tickets are final purchase. Feel free to contact lab@easternbloc.ca if you have any questions or clarifications around this policy.
Procédures COVID-19 :
Pendant ces ateliers, nous demandons aux participants de porter un masque à l'intérieur et de maintenir une distance adéquate. Si vous présentez des symptômes avant de participer à cet atelier, veuillez contacter notre coordinateur de laboratoire à l'adresse lab@easternbloc.ca.
En cas de restrictions accrues du COVID-19, cet atelier se déroulera en ligne
____________________________________________________________________________________________
COVID-19 Procedures:
During these workshops, we kindly ask participants to wear a mask while inside and to maintain proper distancing. If you exhibit symptoms before attending this workshop, please contact our lab coordinator at lab@easternbloc.ca
In the case of increased COVID-19 restrictions, this workshop will run online