Spark-Standalone-Fehler bei laufendem Job

994
bcxuezhe39

Sind seit einigen Tagen an diesem Fehler hängen geblieben, brauchen dringend Hilfe.

Mit dem Standalone-Bereitstellungsmodus versuche ich daher, Beispieljobs auszuführen. Trotzdem, egal wie einfach der Job ist (selbst wenn Sie mit dem Zählen eines Arrays von Zahlen Spark-Shell starten), wird der folgende Fehler immer wieder angezeigt (ein voller Zyklus des Schleifenprotokolls) Info):

INFO AppClient$ClientActor: Executor added: app-20150604024526-0001/3 on worker-20150604023842-localhost-54417 (localhost:54417) with 1 cores INFO SparkDeploySchedulerBackend: Granted executor ID app-20150604024526-0001/3 on hostPort localhost:54417 with 1 cores, 512.0 MB RAM  INFO AppClient$ClientActor: Executor updated: app-20150604024526-0001/3 is now RUNNING  INFO AppClient$ClientActor: Executor updated: app-20150604024526-0001/3 is now LOADING  WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources  WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources  INFO AppClient$ClientActor: Executor updated: app-20150604024526-0001/2 is now EXITED (Command exited with code 1)  INFO SparkDeploySchedulerBackend: Executor app-20150604024526-0001/2 removed: Command exited with code 1  ERROR SparkDeploySchedulerBackend: Asked to remove non-existent executor 2 

Alle Einsichten oder Vorschläge werden sehr geschätzt! Danke vielmals!

1

0 Antworten auf die Frage