Обновление AW¶
Технические изменения в выпуске AW 1.32¶
Изменения в prod-образах¶
Добавлены образы:
- minio-init - инициализация политик minio
- clear-storage - очистка файлового хранилища
- cron - запуск задач по расписанию
- swagger - swagger-ui для документации api
- puppeteer - выполнение скриншотов
Удалены образы:
- cube-api
- cubecube
- cube-refresh-worker
- cubestore-router
- cubestore-worker-1
- cubestore-worker-2
- cube-redis
Изменения в конфигурации¶
Добавлены переменные:
- CLICK_MYSQL_PORT=9004
- CLICK_POSTGRESQL_PORT=9005
- CLICK_TIMEOUT=36000
- ETL_AIRFLOW_LOG_FOLDER=/logs/air
- AW_SWAGGER_PORT_EXPORTED=85
- CLICK_PARSER_OPTIONS=-Xms256m -Xmx2048m
- JAVA_PULLER_OPTIONS=-Xms256m -Xmx4g -XX:+PrintFlagsFinal
- MODEL_SYNC_RESULTS_QUEUE=etl_model_sync_results
- CLICK_PARSER_TIMEOUT - Таймаут соединения с сервисом clickhouse-parser (по умолчанию, 15)
Удалены переменные
- DICT_CACHE_SERVER_HOST
- DICT_CACHE_SERVER_PORT
- AW_NPM_TOKEN
Технические изменения в выпуске AW 1.31¶
Изменения в prod-образах¶
Добавлены образы:
- etl-mono - единый образ для всех ETL-сервисов.
Удалены образы:
- etl-airflow - заменен на etl-mono
- etl-spark-master - заменен на etl-mono
- etl-spark-worker - заменен на etl-mono
- ml-spark-master - заменен на etl-mono
- ml-spark-worker - заменен на etl-mono
- ml-data-preview
- ml-airflow-worker - заменен на etl-mono
Изменения в топологии¶
- Вместо сервисов etl-airflow-webserver, etl-airflow-scheduler и etl-airflow-worker теперь запускается единый сервис etl-airfow;
- Вместо сервисов etl-spark-master, etl-spark-worker теперь запускается единый сервис etl-spark;
- Удалены сервисы ml-spark-master, ml-spark-worker, ml-data-preview, ml-airflow-worker. Отдельных сервисов для ML задач больше нет. Вся функциональность по работе ML-моделей запускаются в составе основных etl-сервисов.
- Сервисы ml-flow и ml-flow-db переименованы в etl-mlflow и etl-mlflow-db и перенесены из docker-compose.ml.yml в основной docker-compose.yml;
- Удалены docker-compose файлы для запуска ML-сервисов: docker-compose.ml.yml, docker-compose.ml.override.yml, docker-compose.ml.prod.yml;
Изменения в конфигурации¶
Добавлены переменные:
- ETL_AIRFLOW_WORKERS - Количество воркеров для Airflow (по умолчанию, 16)
- ETL_AIRFLOW_WORKERS_AUTOSCALE - Включает режим автоскалирования воркеров Airflow (по умолчанию, пусто). Указывается в виде двух значений, разделенных через запятую. Первое значение - макс. количество воркеров, второе - мин. количество (например, 16,8). Cистема будет стараться держать минимальное количество воркеров, увеличивая их только при нагрузке. При указании автоскалирования, значение ETL_AIRFLOW_WORKERS игнорируется
- ETL_AIRFLOW_WEBSERBER_WORKERS - Количество воркеров для web-сервера Airflow, в т.ч. для API (по умолчанию, 4)
- ETL_AIRFLOW_SCHEDULER_LOG_LEVEL - Уровень логирования у шедулера Airflow. Нужно менять только в случае отладки, по умолчанию - ERROR
- ETL_AIRFLOW_SCHEDULER_PARSING_PROCESSES - Количество процессов, которые используюся для парсинга DAG'ов (по умолчанию, 2)
- ETL_API_WORKERS - Количество web-воркеров для etl-api (по умолчанию, 1)
- ETL_DATA_PREVIEW_WORKERS - Количество web-воркеров для etl-data-preview (по умолчанию, 4)
- ETL_MLFLOW_WORKERS - Количество воркеров для web-сервера Mlflow, в т.ч. для API (по умолчанию, 4)
- ETL_MLFLOW_URL - Внутренний URL к Mlflow (по умолчанию, http://etl-mlflow). Используется при многохостовом развертывании. Данный параметр заменил MLFLOW_URL у auth-bridge
- ETL_DATA_PREVIEW_SPARK_CORES - Количество ядер, которое выделяется на Spark-задачи предпросмотра в etl-data-preview (по умолчанию, 1). Если указать *, то будут использоваться все ядра
- ETL_DATA_PREVIEW_SPARK_MEMORY - Лимит памяти, которая выделяется на Spark-задачи предпросмотра в etl-data-preview (по умолчанию, 1g). Принимает значения вида число + ("k", "m", "g" или "t") (например: 512m, 2g)
- AW_DATA_MASTER_WORKERS - Количество web-воркеров для дата-мастера (по умолчанию, 2)
- AW_DATA_MASTER_EXPORT_MODEL_DATA - Управляет возможностью выгрузки данных моделей. ALLOW/ON/TRUE (в любом регистре) - разрешено, DENY/OFF/FALSE (в любом регистре) - запрещено, любое другое непустое значение - запрещено (по умолчанию, ALLOW)
- AW_FILE_PULLER_INTERNAL_DS_S3_URL - указывает на бакет s3-хранилища, в котором размещаются файлы источников. URL заканчивается именно бакетом, без папки 'data_source' и т.п., например: http://minio_user:minio_pass@minio:9000/aw-bucket'
Удалены переменные
- MLFLOW_URL для auth-bridge (заменен на ETL_MLFLOW_URL)
Обновление AW¶
Для обновления Системы выполните следующие действия:
-
Подключитесь к серверу через ssh ; Перейдите в рабочую директорию приложения, в дальнейшем ожидается, что остальные команды выполняются из рабочей директории приложения:
Загрузите на сервер дистрибутив Analytic Workspace. -
Создайте резервную копию файла конфигурации, а также сформируйте список изменений в файле конфигурации по сравнению с шаблоном:
-
Остановите AW:
-
Удалите папку rabbitmq для корректного обновления версии:
-
Распакуйте дистрибутив:
Файл дистрибутива можно удалить, если есть дефицит дискового пространства -
Скопируйте шаблон файла конфигурации .env.dist в файл конфигурации .env и примените изменения в нем (автоматически или вручную):
Автоматическое применение изменений может не сработать в некоторых случаях. В этом случае необходимо будет вручную повторно внести изменения в файле .envУбедитесь, что произведены все изменения в конфигурации между старой и новой версиями, а также изменения, описанные на странице Технические изменения от релиза к релизу, требующие внимания разработчиков и девопсов
-
Выполните очистку docker от старых образов:
Данный пункт не обязателен, но является рекомендацией. Данная операция позволяет избежать лишнего использования дискового пространства -
Загрузите в Docker обновленные образы компонентов AW.
Для закрытого контура перейдите в каталог установки Системы и выполните скрипт ./install.sh:
Для открытого контура: Подключите Docker Registry:
-
Запустите скрипт create_project_dirs.sh для того чтобы создать необходимые директории:
-
При обновлении с версии младше 1.30 необходимо очистить содержимое директории db/rabbitmq
-
Выполните запуск Системы и примените миграции: