tocdepth

2

Вопросы по Spark

Какие конфигурации доступны для работы со Spark?

Список доступных конфигураций можно посмотреть при создании окружения с типом «Spark» в выпадающих списках «Ресурсы Driver» и «Ресурсы Executor».

Как запустить обработку данных на Spark?

  1. Перейдите в Environments → Jupyter Servers.

  2. Нажмите Создать Jupyter Server и создайте Jupyter Server по инструкции, указав тип Препроцессинг и Big Data.

Что делать, если в spark-задаче возникает ошибка «response: Internal Server Error spark-job-job_id»?

Ошибка может быть вызвана повышенной нагрузкой на сервис. Рекомендуем настроить в вашей последовательности запросов автоматический retry на три—пять попыток с интервалом 4, 8, 16, 32 и так далее секунд.

Запустили Evolution free tier
для Dev & Test
Получить