
Durée : 5 Jours

Public : 10 participants Max

Prérequis :
Utilisateurs désirant consolider leurs bases sur Ceph et renforcer leurs expertises sur cette solution de stockage.

Objectif:

Cible:
•
Ce cours est destin
é
aux
administrateurs de stockage et aux op
é
rateurs de cloud qui souhaitent
apprendre
à
d
é
ployer
et
à
g
é
rer
Red Hat Ceph Storage
sur des serveurs dans un centre de donn
é
es
d'entreprise ou dans un environnement Red Hat OpenStack Platform ou OpenShift Container Platform.
•
Les d
é
veloppeurs qui
é
crivent des applications utilisant le stockage bas
é
sur le cloud, apprendront les
distinctions entre les diff
é
rents types de stockage et les m
é
thodes
d'acc
è
s
client.
Programme détaillé
Rappel des concepts de base
- Introduction
- Présentation de RADOS
- Composants Frontend Ceph
- Daemons Ceph
Déploiement d’un cluster avec Ansible
- Architecture et prérequis de déploiement
Lab1: Déploiement d'un cluster avec Ceph-Ansible
Lab2: Administration de base avec Ceph-Ansible
Cluster Ceph avec CEPHADM
- Présentation de Cephadm
- Architecture
- Prérequis de déploiement
LAB 3 : Déploiement d’un cluster de production
- Ajout de moniteurs/MGR
- Ajout des OSDs
LAB 4 : Opération de base sur un cluster
- Etat de santé du cluster (PGs, OSDs, Etat du CrushMap)
- Monitoring du cluster
- Tableau de bord
- Monitoring avec Grafana
- Politiques de gestion des données
LAB 5 : Manipulation d’une CrushMap
LAB 6 : Gestions des PGs-pools-Crushmap
- Manipulation crushmap
- Edition des CRUSH rules
- Erasure Coding, description, profiles
- Replication – Facteur de replication
- Suppressions
- Quotas
- Manipulation des PGs
LAB 7 : Modification d’un domaine de défaillance
Déploiement des modules clients
LAB 8 : Déploiement des composants
- Déploiement de CephFS
- Déploiement du NFS Gateway
- Déploiement du RGW
- Déploiement du HA pour RGW
Administration d’un cluster CEPH
LAB 9 : Administration d’un cluster
- Gestion des utilisateurs et des droits
- Utilisation
- RadosGW
- RBD
- Cryptage de volume RBD
- CephFS
Déploiement d’un cluster Ceph
LAB 10 : Déploiement du cluster ceph sur le Site B
- Installation avec Cephadm
- Ajout des OSDs
- Déploiement des composants
- Manipulation de la CrushMap
- RGW
- CephFS
RBD Mirroring
LAB 11: Mise en place du RBD Mirroring One-way
- Configuration intersites
- Gestion des daemons
- Test de recovery
CEPHFS Mirroring
LAB 12 : Mise en place de du CephFS Mirroring
CEPH Replication S3
LAB 13: Cluster S3 Multisite
Optimisation de la performance
- Les prérequis matériels : Disques, serveurs, le réseau
- Matériels éprouvés
- Les types de déploiements
- Optimisation des performances de CEPH avec NVME Over TCP
LAB 14 : Configuration de Bluestore
LAB 15 : Mesure de la performance d’un cluster Ceph
- Disque brut
- Cluster ceph
- Réseau
NFS- Ganesha
LAB 16 : Administration NFS- Ganesha
- Utilisation
- RGW
- NFS
Configuration iSCSI
LAB 17 : Mise en œuvre de l’iSCSI
Kubernetes - Ceph
LAB 19 : Déploiement d’un cluster kubernetes
LAB 20 : Configuration de stockage persistant Ceph – Kubernetes
- CSI
- PV
- Storage class
- PVC
LAB 21 : Déploiement et utilisation de ROOK
Troubleshooting
LAB 22: Troubleshooting d’un cluster ceph
LAB 23: Monitoring/Maintenance d’un cluster
Demandez un devis pour cette formation