Systèmes nationaux

From CC Doc
Jump to: navigation, search
This page is a translated version of the page National systems and the translation is 100% complete.

Other languages:
English • ‎français


Descriptions dans la base de données de Calcul CanadaThe French name for Compute Canada

La description des systèmes est aussi disponible dans la base de données de Calcul CanadaThe French name for Compute Canada:

Systèmes de calcul

Aperçu

Cedar (GP2) et Graham (GP3) sont des systèmes presqu'identiques. Les principales différences résident dans la quantité de nœuds à large mémoire, à petite mémoire et la quantité de nœuds GPU.

Nom Description Capacité approximative Disponibilité
Ressources infonuagiques
Arbutus/west.cloud
(GP1)
east.cloud
nuage OpenStack IAAS 7,640 cœurs en production
(intégration avec west.cloud)
Cedar (GP2)

grappe de calcul hétérogène d'usage général

  • tâches séquentielles et petites tâches parallèles
  • GPU et nœuds large mémoire
  • petite partition cloud
27,696 cœurs en production
Graham (GP3)

grappe de calcul hétérogène d'usage général

  • tâches séquentielles et petites tâches parallèles
  • petite partition cloud
33,376 cœurs en production
Niagara (LP) grappe de calcul pour les grandes tâches parallèles
  • conçu pour les tâches intensives en parallèle (plus de 1000 cœurs)
environ 60,000 cœurs négociation avec fournisseur

Notez que GP1, GP2, GP3, GP4 et LP auront des systèmes de fichiers parallèles de grande capacité.




Cyberinfrastructure nationale de données

Initialement, la cyberinfrastructure sera composée de grandes grappes de disques et bandes hébergées à SFU et Waterloo.

Type Emplacement Capacité initiale Disponibilité Commentaires
$PROJECT
/project

SFU
Waterloo
Toronto

  • 10Po à SFU
  • 13Po à Waterloo
  • espace pour Toronto à confirmer

disponible à compter de 2017-06-30

  • directement accessible à partir de la grappe (nœuds interactifs et de calcul)
  • sauvegardé sur bandes magnétiques
  • alloué via le concours d'allocation de ressources
  • persistant
$NEARLINE
/nearline

(bande magnétique à long terme)

SFU et Waterloo

  • NDC-SFU
  • NDC-Waterloo
30Po chacun - production en cours pour les bandes
- date d'automatisation non définie
  • les ressources de base de stockage sur bandes magnétiques sont en service; l'automatisation de NEARLINE est toujours en cours
    • dans le cadre du concours d'allocation des ressources 2017, l'espace nearline est alloué à l'espace projet sur demande auprès du soutien technique
  • les fichiers déplacés vers une cache $NEARLINE seront automatiquement déplacés sur bande magnétique
  • les bandes magnétiques seront répliquées entre SFU et Waterloo
  • alloué via le concours d'allocation de ressources
  • la restauration des sauvegardes sera faite via une requête au soutien technique
  • persistant
Stockage objet

Tous les sites

  • incluant UVic et Toronto dans le futur
  • NDC-Object

peu d'espace au départ
(quelques Po utilisables)

non définie

Calcul CanadaThe French name for Compute Canada a acquis la solution WOS de DDN. Les détails quant à l'implémentation et l'accès ne sont pas tous disponibles présentement; nous prévoyons cependant :

  • pools de stockage distribués et redondants
  • disponible indépendamment de l'endroit (selon les choix de contrôle d'accès)
  • supporte des architectures redondantes haute disponibilité
  • interface S3 planifiée; d'autres interfaces d'accès dont Swift sont en cours d'analyse sans toutefois de garantie de leur mise en production
  • nouveau service destiné à des données expérimentales et d'observation
  • alloué via le concours d'allocation de ressources
Besoins spécifiques divers ~3.5Po plans personnalisés
  • pour les besoins spécifiques de projets d'envergure
  • configurations dCache et autres
  • alloué via le concours d'allocation de ressources

Notez que dû à la mise hors service de Silo, nous avons rendu du stockage intérimaire disponible en attendant que la cyberinfrastructure soit complètement déployée.