Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.

...



Creo un client per ogni "top level directory" per questo filesystem:


Code Block
[root@c-mon-1 almalinux]# ceph fs authorize cephfs client.allfs /

...

 rwp | tee /etc/ceph/ceph.client.allfs.keyring
[client.allfs]
	key = AQCnHolnBCOgNBAA9Vn36INaHCF5u599JMjtuQ==




Code Block
[root@c-mon-1 almalinux]# ceph fs authorize cephfs client.terabithome /terabithome rwrwp | tee /etc/ceph/ceph.client.terabithome.keyring
[client.terabithome]
    key = AQA9FIlnaJ5SFBAAdT8gzFgfOp9jq3meON0o+g==


[root@c-mon-1 almalinux]# ceph fs authorize cephfs client.slurmctrl /slurmctrl rwrwp | tee /etc/ceph/ceph.client.slurmctrl.keyring
[client.slurmctrl]
    key = AQB4FIlng39/JhAAloEnVIZDpfMz/Zijwjou5Q==



Il 'p' serve per poter settare le quote



A questo punto devo creare le top level directory. Configuro una macchina di servizio come client (vedi How to mount a ceph file system) e li' monto l'intero filesystem usando il client allfs. Quindi il comando di mount sara' qualcosa tipo: 



Code Block
mkdir /cephfs

...



mount -t ceph allfs@.cephfs=/ /cephfs -o mon_addr=10.70.42.10:6789/10.70.42.9:6789/10.70.42.8:6789,secretfile=/etc/ceph/cephfs.allfs.secret



A questi punto creo le top level directory e poi posso fare l'umount:

...

Code Block
mkdir /cephfs/terabithome

mkdir /cephfs/slurmctrlslurmct




umount /cephfs



Il file /etc/ceph/ceph.client.xyz.keyring serviranno poi nei nodi dove si monta la top level directory xyz

...

Volendo si puo' fare in modo che tree diversi del file system usino pool diversi


Abilitazione di un path in ceph-fs che usa un pool SSD


Vogliamo fare in modo che quello che per tutto quello che viene scritto sotto /ssd venga usato un pool SSD

E' tutto spiegato nel ticket:


Jira
serverINFN Jira Software
columnIdsissuekey,summary,issuetype,created,updated,duedate,assignee,reporter,priority,status,resolution
columnskey,summary,type,created,updated,due,assignee,reporter,priority,status,resolution
serverId8087fedc-8816-3706-9e66-78f987f39e0c
keyPDCL-2399


In sostanza:

  • si crea un pool dati SSD
  • si aggancia questo nuovo pool al filesystem (ceph fs add_data_pool cephfs cephfs_data_ssd)
  • si specifica che per tutto quello che si scrive sotto /ssd si deve usare questo pool ([root@cld-ter-01# setfattr -n ceph.dir.layout.pool -v cephfs_data_ssd /cephfs/ssd)