- tocdepth
2
Что делать, если при использовании Spark возникает ошибка?
Если при использовании Spark не запускается кластер, то это может быть по следующим причинам:
Использование в командах недопустимых символов.
В загруженном JAR-файле неверный
owner
илиowner group
.
Сделайте следующее:
Для проверки наличия недопустимых символов запустите команду:
/bin/spark-submit --class cn.interf.Test --master yarn-client/opt/client/Spark/spark1-1.0-SNAPSHOT.jar
Если недопустимые символы присутствовали, то исправьте их и проверьте — снова запустите команду.
Если возникла другая ошибка — в загруженном JAR-файле
owner
иowner group
—root
.Измените в JAR-файле
owner
иowner group
наomm:wheel
.
Была ли статья полезной?
Запустили Evolution free tier
для Dev & Test
Получить
для Dev & Test