Slurm-Initialisierung fehlgeschlagen
464
Bub Espinja
Ich versuche, Slurm in einem Himbeer-Cluster mit Raspbian 9.4 einzurichten. Ich kann slurmctld starten, aber wenn ich slurmd starten möchte, erhalte ich folgende Ausgabe:
pi@node1:~ $ slurmd -Dvvvc slurmd: debug: Log file re-opened slurmd: error: Domain socket directory /SHARED/slurm/var/slurmd.node1: No such file or directory slurmd: Message aggregation disabled slurmd: topology NONE plugin loaded slurmd: route default plugin loaded slurmd: debug2: Gathering cpu frequency information for 4 cpus slurmd: debug: Resource spec: No specialized cores configured by default on this node slurmd: debug: Resource spec: Reserved system memory limit not configured for this node slurmd: debug2: read_slurm_cgroup_conf: No cgroup.conf file (/SHARED/slurm/confdir/cgroup.conf) slurmd: debug2: _file_read_content: unable to open '(null)/freezer//release_agent' for reading : No such file or directory slurmd: debug2: xcgroup_get_param: unable to get parameter 'release_agent' for '(null)/freezer/' slurmd: error: cgroup namespace 'freezer' not mounted. aborting slurmd: error: unable to create freezer cgroup namespace slurmd: error: Couldn't load specified plugin name for proctrack/cgroup: Plugin init() callback failed slurmd: error: cannot create proctrack context for proctrack/cgroup slurmd: error: slurmd initialization failed
Meine Konfigurationsdatei lautet:
ClusterName=Cluster ControlMachine=node1 SlurmUser=pi SlurmdUser=pi AuthType=auth/none CryptoType=crypto/openssl JobCredentialPrivateKey = /SHARED/slurm/confdir/slurm.key JobCredentialPublicCertificate = /SHARED/slurm/confdir/slurm.cert SlurmctldDebug=3 SlurmdDebug=3 StateSaveLocation=/SHARED/slurm/var SlurmdSpoolDir=/SHARED/slurm/var/slurmd.%n SlurmctldPidFile=/SHARED/slurm/var/slurmctld.pid SlurmdPidFile=/SHARED/slurm/var/slurmd.%n.pid FastSchedule=2 SlurmctldLogFile=/SHARED/slurm/var/slurmctld.log SlurmdLogFile=/SHARED/slurm/var/slurmd.%n.log NodeName=node1 CPUs=4 SocketsPerBoard=4 CoresPerSocket=1 ThreadsPerCore=1 RealMemory=976 TmpDisk=8212 PartitionName=main Nodes=node1 Default=YES MaxTime=INFINITE State=UP
Was verliere ich?
Haben Sie versucht, `slurmd` mit` sudo`-Privilegien auszuführen?
Fanatique vor 5 Jahren
0
Ja, gleiche Ergebnisse
Bub Espinja vor 5 Jahren
0
0 Antworten auf die Frage
Verwandte Probleme
-
0
Doppeleinträge für den Befehl "slurm sacct" entfernen: "extern"
-
1
SLURM-Konfiguration: cons_res mit CR_Core kann keine Ressourcen zuordnen oder Jobs werden im CG-Stat...
-
1
Slurm erlaubt Authentifizierung ohne Zuordnung
-
1
Ansys Remote Solver mit SLURM-Cluster
-
0
Wie verwende ich SLURMs --dependency = expand:<jobid> korrekt </jobid>
-
0
Ansys RSM mit SLURM-Cluster
-
1
Einen SLURM-Zombie-Job beenden