Облачная платформаAdvanced

Примечания и ограничения

Язык статьи: Русский
Показать оригинал
Страница переведена автоматически и может содержать неточности. Рекомендуем сверяться с английской версией.

В этом разделе описываются примечания и ограничения при использовании CCE.

Кластеры и узлы

  • После создания кластера следующие элементы нельзя изменить:
    • Количество мастер-узлов: Например, кластер без HA (с одним мастер-узлом) нельзя изменить на кластер с HA (с тремя мастер-узлами).
    • Зона доступности (AZ), в которой развернут мастер-узел
    • Сетевая конфигурация кластера, такая как VPC, подсеть, контейнерный CIDR-блок, Service CIDR-блок и настройки kube-proxy (перенаправления)
    • Сетевой режим: Например, сеть туннеля контейнера нельзя изменить на VPC‑сеть.
  • Внутренние ресурсы CCE, такие как ECS‑узлы, ограничены квотой и их наличием. Возможно, что при создании кластера, масштабировании кластера или авто‑масштабировании будет создано только часть узлов.
  • Характеристики ECS‑узла: CPU ≥ 2 ядра, память ≥ 4 GiB
  • Чтобы получить доступ к кластеру CCE через VPN, убедитесь, что CIDR-блок VPN не конфликтует с CIDR-блоком VPC, в котором находится кластер, и с контейнерным CIDR-блоком.

Сети

  • По умолчанию NodePort Service доступен внутри VPC. Чтобы получить доступ к NodePort Service через Интернет, привяжите EIP к узлу в кластере заранее.
  • Ограничения на балансировщики нагрузки, связанные с сервисами:
    • Балансировщик нагрузки, автоматически создаваемый на основе конфигурации Service, не может быть связан с другими ресурсами. Если вы связываете балансировщик нагрузки с другими ресурсами, он не может быть автоматически удалён при удалении Service, что приводит к остаточным ресурсам.
    • Имена слушателей балансировщика нагрузки для кластеров версии v1.15 и более ранних изменить нельзя. Если изменить имена, доступ к балансировщику нагрузки может стать ненормальным.
  • В таблице ниже показаны взаимосвязи между сетевыми политиками и типами кластеров.

    Тип кластера

    CCE Standard Cluster

    CCE Standard Cluster

    CCE Turbo Cluster

    Модель сети

    Туннель

    VPC

    Облачная нативная сеть 2.0

    NetworkPolicy

    Включено по умолчанию

    Отключено по умолчанию (Чтобы использовать сетевые политики, включите DataPlane V2 при создании кластера.)

    Отключено по умолчанию (Чтобы использовать сетевые политики, включите DataPlane V2 при создании кластера.)

    Реализация плоскости данных

    OpenvSwitch

    eBPF

    eBPF

    Версия кластера для правил входящего трафика

    Все версии

    Версия кластера: v1.27.16-r30, v1.28.15-r20, v1.29.13-r0, v1.30.10-r0, v1.31.6-r0, или более поздняя

    Версия кластера: v1.27.16-r10, v1.28.15-r0, v1.29.10-r0, v1.30.6-r0, или более поздняя

    Версия кластера для правил исходящего трафика

    v1.23 и более поздние

    Селектор для правил входящего трафика

    namespaceSelector

    podSelector

    namespaceSelector

    podSelector

    IPBlock

    namespaceSelector

    podSelector

    IPBlock

    Селектор для правил egress

    namespaceSelector

    podSelector

    IPBlock

    Поддерживаемые ОС

    EulerOS

    CentOS

    HCE OS 2.0

    HCE OS 2.0

    HCE OS 2.0

    Сетевые политики IPv6

    Не поддерживается

    Не поддерживается

    Поддерживается

    Защищённые контейнеры

    Не поддерживается

    Не поддерживается

    Не поддерживается

    Область IPBlock

    Не ограничено

    Подсети внутри pod CIDR‑блока, Service CIDR‑блока и IP‑адресов узлов

    Подсети внутри pod CIDR‑блока, Service CIDR‑блока и IP‑адресов узлов

    Ограничить доступ к ClusterIP через метки рабочих нагрузок

    Не поддерживается

    Поддерживается

    Поддерживается

    Ограничить внутренний CIDR‑блок облачного сервера 100.125.0.0/16

    Поддерживается

    Поддерживается

    Не поддерживается

    SCTP

    Не поддерживается

    Поддерживается

    Не поддерживается

    Всегда разрешать доступ к pod‑ам на узле с других узлов

    Поддерживается

    Поддерживается

    Поддерживается

    Настройте EndPort в сетевых политиках

    Не поддерживается

    Поддерживается

    Не поддерживается

    Note
    • CCE DataPlane V2 выпущен с ограничениями. Чтобы использовать эту функцию, отправьте сервисный тикет в CCE.
    • Защищённые контейнеры (например, Kata в качестве среды выполнения контейнеров) не поддерживаются сетевыми политиками.
    • Если вы обновляете стандартный кластер CCE с туннельной сетью до версии, поддерживающей правила egress в режиме in-place, правила не будут работать, потому что ОС узла не обновлена. В этом случае сбросьте узел.
    • Когда сетевая политика включена для кластера с туннельной сетью, исходный IP‑адрес pod‑а внедряется в необязательное поле пакетов, которые он отправляет в любой блок Service CIDR. Это позволяет настраивать правила сетевой политики на целевом pod‑е, учитывая исходный IP‑адрес pod‑а.

Томы хранения

  • Ограничения на тома EVS:
    • Диски EVS нельзя присоединять между AZ и нельзя использовать несколькими нагрузками, несколькими подами одной и той же нагрузки или несколькими задачами. Совместное использование данных Поддержка общего диска между узлами в кластере CCE не предусмотрена. Если диск EVS присоединяется к нескольким узлам, могут возникнуть конфликты I/O и конфликты кэша данных. Поэтому при создании развертывания, использующего диски EVS, выбирайте только один под.
    • Для кластеров версии ранее v1.19.10, если используется политика HPA для масштабирования нагрузки с примонтированными томами EVS, существующие поды не могут быть прочитаны или записаны, когда новый под планируется на другой узел.

      Для кластеров версии v1.19.10 и новее, если используется политика HPA для масштабирования нагрузки с примонтированными томами EVS, новый под не может быть запущен, потому что диски EVS нельзя присоединять.

  • Ограничения для томов SFS:
    • Несколько PV могут использовать одну и ту же файловую систему SFS или SFS Turbo со следующими ограничениями:
      • Если под монтирует том SFS или SFS Turbo, используемый несколькими PVC/PV, и у PV одинаковые volumeHandle значения, Под может не запуститься. Чтобы избежать этой проблемы, не монтируйте одну и ту же файловую систему SFS или SFS Turbo в один и тот же Под.
      • Эта persistentVolumeReclaimPolicy параметр в PVs должен быть установлен в Retain. В противном случае, когда PV удаляется, связанный базовый том может быть удалён. В этом случае другие PV, связанные с базовым томом, работают некорректно.
      • Когда базовый том используется многократно, включите изоляцию и защиту для ReadWriteMany на уровне приложения, чтобы предотвратить перезапись и потерю данных.
  • Ограничения для OBS‑томов:
    • Если используются OBS‑тома, группу владельца и права точки монтирования нельзя изменять.
    • Каждый раз, когда том OBS монтируется к рабочей нагрузке через PVC, в бекэнде создаётся резидентный процесс. Когда рабочая нагрузка использует слишком много томов OBS или читает и записывает большое количество файлов объектного хранилища, резидентные процессы будут потреблять значительное количество памяти. Чтобы обеспечить стабильную работу нагрузки, убедитесь, что количество используемых томов OBS не превышает запрошенную память. Например, если нагрузка запрашивает 4 ГиБ памяти, количество томов OBS должно быть не более 4.
    • Безопасные контейнеры не поддерживают тома OBS.
    • Жёсткие ссылки не поддерживаются при монтировании общих бакетов.
    • Режим только для чтения не поддерживается, когда том OBS PVC монтируется к нагрузке.
  • Ограничения на локальные PV:
    • Локальные PV поддерживаются только при версии кластера v1.21.2-r0 или новее и версии дополнения Everest 2.1.23 или новее. Версия 2.1.23 или новее рекомендуется.
    • Удаление, удаление, сброс или масштабирование в узле приведёт к потере данных PVC/PV локального PV, связанного с узлом, которые невозможно восстановить или повторно использовать. В этих сценариях Под, использующий локальный PV, выгнано из узла. Будет создан новый Под, который остаётся в состоянии ожидания. Это происходит потому, что PVC, используемый Подом, имеет метку узла, из‑за чего Под не может быть запланирован. После сброса узла Под может быть запланирован на сброшенный узел. В этом случае Под остаётся в состоянии создания, потому что базовый логический том, соответствующий PVC, не существует.
    • Не удаляйте вручную соответствующий пул хранения или не отсоединяйте диски с данными от узла. В противном случае могут возникнуть исключения, такие как потеря данных.
    • Локальный PV не может быть смонтирован к нескольким рабочим нагрузкам или джобам одновременно.
  • Ограничения для локальных EVs:
    • Локальные EVs поддерживаются только при версии кластера v1.21.2-r0 или выше и версии дополнения Everest 1.2.29 или выше.
    • Не удаляйте вручную соответствующий пул хранения или не отсоединяйте диски с данными от узла. В противном случае могут возникнуть исключения, такие как потеря данных.
    • Убедитесь, что /var/lib/kubelet/pods/ каталог не смонтирован в pod на node. В противном случае pod, смонтированный с такими томами, может не удалиться.
  • Ограничения на snapshots и Бэкапы:
    • Функция snapshot доступна только для кластеров v1.15 и новее и требует CSI-based Everest add-on.
    • Подтип (common I/O, high I/O, или ultra-high I/O), режим диска (VBD или SCSI), шифрование данных, статус совместного доступа и ёмкость EVS‑диска, созданного из snapshot, должны совпадать с соответствующими параметрами диска, связанным со snapshot. Эти атрибуты нельзя изменить после проверки или настройки.
    • Snapshots можно создавать только для EVS‑дисков, которые находятся в состоянии available или in use, и максимум семь snapshots может быть создано для одного EVS‑диска.
    • Snapshots можно создавать только для PVC, созданных с использованием storage class (имя которого начинается с csi), предоставляемого Everest add-on. Snapshots нельзя создавать для PVC, созданных с использованием FlexVolume storage class, имя которого ssd, sas или sata.
    • Данные snapshot зашифрованных дисков хранятся зашифрованными, а данные non-encrypted дисков хранятся non-encrypted.
  • Ограничения LVM:

    Конфигурация Бэкап по умолчанию, хранящаяся в /etc/lvm/lvm.conf путь для узла LVM изменён. После установки дополнения CCE Container Storage (Everest) (версии ≥ 2.4.98) архивные журналы будут храниться только один день, чтобы избежать заполнения дискового пространства историческими метаданными множества операций LVM.

Дополнения

CCE использует Helm charts для развертывания дополнений. Чтобы изменить или обновить дополнение, выполните операции на Дополнения странице или используйте открытые API управления дополнениями. Избегайте внесения изменений в ресурсы дополнений в бэкенде, так как это может привести к аномальному поведению дополнений илиunexpected проблем. Например, параметры настройки могут быть перезаписаны после обновления.

Ресурсы кластера CCE

Для ваших кластеров CCE в каждом регионе существуют квоты ресурсов.

Элемент

Ограничения для обычных пользователей

Общее количество кластеров в регионе

50

Количество узлов в кластере (масштаб управления кластером)

Можно выбрать максимум 50, 200, 1000 или 2000 узлов.

Maximum number of pods on a node

256

Maximum number of pods managed by a cluster

100,000 подов

Ограничение емкости кластера

Ёмкость кластера состоит из различных типов ресурсов, включая группы контейнеров (подов), экземпляры облачного хранилища (постоянные тома) и Сервисы. Кроме того, размер этих объектов ресурсов также может влиять на емкость кластера.

Например:

  • Если подов слишком много, максимальное количество подов уменьшится в пределах определённого диапазона производительности.
  • По мере приближения количества подов к верхнему пределу, верхние пределы других типов ресурсов в кластере также будут соответственно уменьшаться.

Поскольку кластеры в реальных приложениях содержат несколько типов ресурсов, возможно, что количество ресурсов одного типа может не достичь своего верхнего предела. Важно регулярно контролировать использование ресурсов кластера и эффективно планировать и управлять ресурсами, чтобы обеспечить наилучшую производительность всех ресурсов. Если текущие характеристики не удовлетворяют вашим требованиям, вы можете масштабировать кластер, чтобы обеспечить стабильность.

Зависимые базовые облачные ресурсы

Категория

Элемент

Ограничения для обычных пользователей

Вычисления

Поды

1000

Ядра

8000

Объём ОЗУ (МБ)

16,384,000

Сеть

VPC на аккаунт

5

Подсети на аккаунт

100

Группы безопасности на аккаунт

100

Правила групп безопасности на аккаунт

5000

Маршруты на таблицу маршрутизации

100

Маршруты на VPC

100

VPC peering connections на регион

50

Network ACLs на аккаунт

200

Шлюзы соединения уровня 2 на аккаунт

5

Балансировка нагрузки

Elastic load balancers

50

Слушатели балансировщика нагрузки

100

Сертификаты балансировщика нагрузки

120

Политики переадресации балансировщика нагрузки

500

Группа хостов бэкэнда балансировщика нагрузки

500

Сервер бэкэнда балансировщика нагрузки

500