Systèmes nationaux

From CC Doc
Jump to: navigation, search
This page is a translated version of the page National systems and the translation is 100% complete.

Other languages:
English • ‎français


Descriptions dans la base de données de Calcul Canada

La description des systèmes est aussi disponible dans la base de données de Calcul Canada:

Systèmes de calcul

Aperçu

Cedar (GP2) et Graham (GP3) sont des systèmes presqu'identiques. Les principales différences résident dans la quantité de nœuds à large mémoire, à petite mémoire et la quantité de nœuds GPU.

Nom Description Capacité approximative Disponibilité
Ressources infonuagiques
Arbutus/west.cloud
(GP1)
east.cloud
nuage OpenStack IAAS 7,640 cœurs en production
(intégration avec west.cloud)
Cedar (GP2)

grappe de calcul hétérogène d'usage général

  • tâches séquentielles et petites tâches parallèles
  • GPU et nœuds large mémoire
  • petite partition cloud
27,696 cœurs en production
Graham (GP3)

grappe de calcul hétérogène d'usage général

  • tâches séquentielles et petites tâches parallèles
  • GPU et nœuds large mémoire
  • petite partition cloud
33,376 cœurs en production
GP4

grappe de calcul hétérogène d'usage général

  • possiblement GPU et nœuds large mémoire, etc.
environ 40000 cœurs fin de la demande de propositions en mai 2018
Niagara (LP) grappe de calcul pour les grandes tâches parallèles
  • conçu pour les tâches intensives en parallèle (plus de 1000 cœurs)
environ 60,000 cœurs négociation avec fournisseur

Notez que GP1, GP2, GP3, GP4 et LP auront des systèmes de fichiers parallèles de grande capacité.




Cyberinfrastructure nationale de données

Présentement en production

Site Système de fichiers Type Capacité (présentement) Mise en service Détails
Université Simon-Fraser
cedar.computecanada.ca

project

Lustre

10 Po

Juin 2017

  • sauvegarde sur bandes
  • alloué via le concours d'allocation de ressources
  • persistant

home

Lustre

250 To

Juin 2017

  • sauvegarde sur bandes
  • persistant

scratch

Lustre

3.5 Po

Juin 2017

  • purge des données inactives
Université de Waterloo
graham.computecanada.ca

project

Lustre

12 Po

Juin 2017

  • sauvegarde sur bandes
  • tous les groupes disposent de l'allocation par défaut; les ressources supplémentaires sont allouées via le concours d'allocation de ressources
  • persistant

home

NFS (Network File System)

64 To

Juin 2017

  • sauvegarde sur bandes
  • persistant

scratch

Lustre

3.2 Po

Juin 2017

  • purge des données inactives

nearline

Lustre

80 Po

Juillet 2018

  • les fichiers sont enregistrés sur bandes; les fichiers stubs demeurent et leur contenu est récupéré de façon transparente lorsque ces derniers sont requis
  • tous les groupes disposent de l'allocation par défaut; les ressources supplémentaires sont allouées via le concours d'allocation de ressources
  • persistant
Université de Toronto
niagara.computecanada.ca

project

GPFS (General Parallel File System)

2 Po

Avril 2018

  • sauvegarde sur bandes
  • alloué via le concours d'allocation de ressources
  • persistant

home

GPFS (General Parallel File System)

200 To

Avril 2018

  • sauvegarde sur bandes
  • persistant

scratch

GPFS (General Parallel File System)

7 Po

Avril 2018

  • purge des données inactives

archive

HPSS (High Performance Storage System)

10 Po

Avril 2018

  • alloué via le concours d'allocation de ressources
  • persistant