Introduction to MPI (Message Passing Interface) [McGill]

Event Information

Share this event

Date and Time

Location

Location

Rutherford Physics Building, McGill University

3600 Rue University

Bell Room (Room 103)

Montréal, QC H3A 2T8

Canada

View Map

Event description

Description

Using the full power of a compute cluster implies using multiple compute servers (or "nodes"). From a given sequential algorithm, one needs to implement communications between processes running on each node. The Message Passing Interface (MPI) is the standard way of managing all communications between parallel processes.

This training is a hands-on, practical introduction to parallel computing distributed on multiple nodes with the help of MPI. Participants will learn the basics of exchanging and coordinating messages between processes, both with point-to-point communications and with some collective communications.

Prerequisites: some knowledge of the C programming language, the Bash command line and job submission on a compute cluster. If needed, participants are invited to check our Introduction to Linux and Introduction to Advanced Research Computing (ARC) workshops.

Registration

  • Academic participant : FREE
  • Non-academic participant : $350 (by check only) - Please write to formation@calculquebec.ca to complete your registration.

Course plan

  • General concepts
  • First code : initialize, finalize, rank, number of processes and communicator
  • MPI data types
  • Point-to-point communications
  • Synchronization between processes
  • Non-blocking communications
  • Collective communications: reduce, gather, scatter, broadcast

Instructor

Bart Oldeman, an Advanced Research Computing (ARC) analyst working at Calcul Québec

Language

English

Contact

For any question, please write to formation@calculquebec.ca.




Résumé

Utiliser la pleine puissance d’une grappe de calcul nécessite d’utiliser plusieurs ordinateurs (noeuds) de celle-ci, de manière coordonnée. Pour ce faire, en plus de programmer l’algorithme de calcul, il faut aussi programmer la communication entre les processus s’exécutant sur chacun des noeuds. L’interface de passage de message (ou "Message Passing Interface" (MPI) en anglais) est la façon la plus courante de gérer cette communication.

Cette formation vise à introduire le participant aux concepts de calcul parallèle distribué sur plusieurs noeuds à l’aide de MPI. On présentera les notions de base d’échange de messages avec MPI permettant ainsi de coordonner les processus sur les différents noeuds.

Prérequis : des connaissances de base du langage C, de la ligne de commande Bash et de la soumission de tâches sur les grappes de calcul. En cas de besoin, nous invitons les participants à regarder nos ateliers Introduction à Linux et Introduction au calcul informatique de pointe (CIP, "Advanced Research Computing" ou ARC en anglais).

Inscription

  • Participant académique : gratuit
  • Participant non-académique : 350$ (par chèque). Veuillez nous écrire afin de compléter votre inscription : formation@calculquebec.ca

Plan de cours

  • Concepts généraux
  • Premier code : initialiser, terminer, rang, nombre de processus et communicateur
  • Types de données MPI
  • Communications point-à-point
  • Synchronisation entre processus
  • Communications non-bloquantes
  • Communications collectives: réduction, regroupement, déploiement, distribution

Formateur

Bart Oldeman, un analyste en calcul informatique de pointe de Calcul Québec.

Langue du cours

Anglais

Contact

Pour toutes questions, écrivez-nous à formation@calculquebec.ca.

Date and Time

Location

Rutherford Physics Building, McGill University

3600 Rue University

Bell Room (Room 103)

Montréal, QC H3A 2T8

Canada

View Map

Save This Event

Event Saved