Управление заданиями в MRS

Задание можно создать и запустить двумя способами:

Создание задания через GUI

  1. В списке сервисов выберите MapReduce Service.

  2. В боковом меню слева выберите Clusters → Active Clusters.

  3. Нажмите на название кластера.

  4. Перейдите на вкладку Jobs и нажмите Create.

    ../_images/s__tab-create-job.jpeg
  5. Заполните следующие поля и нажмите ОК:

    1. Type — выберите тип задания «MapReduce».

    2. Name — укажите название задания.

    3. Program Path — нажмите OBS и выберите путь к программе hadoop-mapreduce-examples-3.1.3.jar, которую загрузили в бакет в папку «program».

    4. Parameters — введите следующее: wordcount s3a://mrs-word/input/ s3a://mrs-word/output/, где s3a://mrs-word/input/ — путь к созданной ранее папке «input» в бакете «mrs-word», а путь с output — путь к папке бакета, в которую будет выгружен результат задания.

    ../_images/s__settings-job-creation.jpeg
  6. В таблице появится запущенное задание.

Создание задания через узел кластера

  1. В списке сервисов выберите MapReduce Service.

  2. В боковом меню слева выберите Clusters → Active Clusters.

  3. Нажмите на название кластера mrs_demo.

  4. Перейдите на вкладку Nodes и раскройте master-узлы. Нажмите на название узла «node_master1».

    ../_images/s__push-node-master1.jpeg
  5. В новом окне нажмите Remote Login.

  6. Авторизуйтесь в узле — введите логин (root) и пароль.

  7. Для настройки переменной среды введите команду:

    source /opt/client/bigdata_env

  8. В целях безопасности, для авторизации текущего пользователя введите команду, а затем пароль:

    kinit MRS cluster username

    Параметр:

    MRS cluster username — логин текущего пользователя.

  9. На данном шаге вам понадобятся ключи доступа AK и SK. Для копирования программы hadoop-mapreduce-examples-3.1.3.jar из бакета OBS введите следующую команду:

    hadoop fs - Dfs . s3a . access . key = AK - Dfs . s3a . secret . key = SK - copyToLocal source_path . jar target_path . jar

    Параметры:

    AK — Access Key ID.

    SK — Secret Access Key.

    source_path.jar — путь к программе hadoop-mapreduce-examples-3.1.3.jar в бакете OBS.

    target_path.jar — путь размещения программы на узле.

    Например, в нашем случае команда будет следующей (только подставьте свои ключи AK и SK):

    hadoop fs - Dfs . s3a . access . key = AK - Dfs . s3a . secret . key = SK - copyToLocal
    s3a : // mrs - word / program / hadoop - mapreduce - examples - 3.1.3 . jar
    / home / omm / hadoop - mapreduce - examples - 3.1.3 . jar
    Примечание

    Для вставки команды в узел воспользуйтесь кнопкой Input Commands вставьте команду и нажмите Send.

    ../_images/s__button-input-commands.jpeg
  10. Для создания задания введите следующую команду:

    source / opt / client / bigdata_env ; hadoop jar target_path wordcount - Dfs . s3a . access . key = AK - Dfs . s3a . secret . key = SK input_path

    Параметры:

    • target_path — путь размещения программы hadoop-mapreduce-examples-3.1.3.jar на узле.

    • AK — Access Key ID.

    • SK — Secret Access Key.

    • input_path — путь к созданной ранее папке «input» в бакете «mrs-word».

    • output_path — путь к папке «output» в бакете, в которую будет выгружен результат задания.

    Например, в нашем случае команда будет следующей (только подставьте свои ключи AK и SK):

    source / opt / client / bigdata_env ; hadoop jar / home / omm / hadoop - mapreduce - examples - 3.1.3 . jar wordcount - Dfs . s3a . access . key = AK - Dfs . s3a . secret . key = SK s3a : // mrs - word / input / s3a : // mrs - word / output /

    Задание запущено.

Advanced