비밀번호

커뮤니티2

  • 맑음속초13.3맑음북춘천3.0맑음철원2.7맑음동두천4.3맑음파주5.3맑음대관령6.4맑음춘천3.1황사백령도10.8황사북강릉11.5맑음강릉13.0맑음동해13.5황사서울7.6황사인천8.1맑음원주4.1황사울릉도12.1맑음수원5.9맑음영월3.0맑음충주3.7맑음서산2.9맑음울진10.3황사청주5.9황사대전5.1맑음추풍령2.5황사안동5.0맑음상주5.4황사포항9.4맑음군산4.6황사대구8.4황사전주4.7황사울산8.7황사창원10.8황사광주6.8구름많음부산11.1구름많음통영8.9황사목포6.8황사여수8.6황사흑산도7.4구름많음완도6.4맑음고창2.8구름많음순천7.0황사홍성5.2맑음서청주3.4황사제주9.7맑음고산10.0구름많음성산10.9구름많음서귀포13.7구름많음진주7.2맑음강화7.5맑음양평4.1맑음이천4.2맑음인제4.5맑음홍천2.9맑음태백9.0맑음정선군3.2맑음제천2.0맑음보은1.4맑음천안2.7맑음보령3.9맑음부여2.3맑음금산1.8맑음세종3.0맑음부안5.0구름많음임실0.9맑음정읍3.8구름많음남원2.6구름많음장수0.0맑음고창군4.5구름많음영광군3.4구름많음김해시10.8구름많음순창군2.7구름많음북창원10.7구름많음양산시11.9구름많음보성군6.4구름많음강진군5.3구름많음장흥4.0흐림해남5.6구름많음고흥4.3구름많음의령군4.3구름많음함양군2.2구름많음광양시6.8흐림진도군7.8맑음봉화2.0맑음영주4.2맑음문경4.3맑음청송군3.1구름많음영덕8.8맑음의성3.4맑음구미6.5맑음영천6.8구름많음경주시8.7구름많음거창2.5구름많음합천4.7구름많음밀양9.3구름많음산청4.7구름많음거제11.8구름많음남해10.0구름많음북부산11.9
  • 2026.04.21(화)

데이터 엔지니어링데이터 엔지니어링

[Apache Airflow 2.10.0 Hybrid Executor] 새로 생긴 Multiple Executor 기능을 통해 DAG / Task마다 별도의 Executor로 실행하기

2024년 8월 15일 Airflow의 2.10 버전이 릴리즈되었습니다.

중요한 변경 중 하나는 Hybrid Executor를 구성할 수 있게 된 것입니다.

Airflow는 provider 모듈 포함 많은 Executor를 지원합니다. 각 Executor는 각각 컴퓨팅 효율과 실행시간, 격리 등에 장단점이 있으며 기존의 Airflow에서는 이중 하나의 Executor만을 사용할 수 있었습니다. 

Hybrid Executor를 구성할 수 있음에 따라 DAG 또는 Task는 각각의 워크플로우에 적절한 Executor를 통해 실행될 수 있게 되었습니다.

 

이번 글에서는 단일 Airflow Scheduler 내에서 DAG또는 Task에 따라 여러 Executor를 사용하는 새로운 기능을 소개합니다. 

 

우선 Airflow 구성의 core 항목에서 사용할 executor들을 콤마로 구분하여 정의합니다.

environment:
    AIRFLOW__CORE__PARALLELISM: 3
    AIRFLOW__CORE__EXECUTOR: LocalExecutor,plugins.fargate_executor.AwsFargateExecutor

 

위 예시에서는 LocalExecutor, AwsFargateExecutor 두 Executor를 사용했습니다.

이중 가장 첫 번째의 Executor가 기본적으로 사용되며 DAG또는 Task 내에 실행될 Executor를 명시하지 않는다면 맨 첫 번째의 Executor로 실행되게 됩니다.

 

@task(executor="plugins.fargate_executor.AwsFargateExecutor")
def task_func(**kwargs):
    ...

데코레이터 Task의 경우 task 데코레이터의 파라미터로 Executor의 이름을 넘겨줍니다.

task_op=PythonOperator(
    task_id="t1",
    python_callable=task_func,
    executor="plugins.fargate_executor.AwsFargateExecutor",
)

PythonOperator의 경우 생성자 인자로 executor에 실행할 Executor의 이름을 넘겨줍니다.

 

with DAG(
    dag_id="dag1",
    start_date=pendulum.datetime(2024, 1, 1, 0, 0, 0, tz="Asia/Seoul"),
    schedule_interval=None,
    default_args={
        "executor": "plugins.fargate_executor.AwsFargateExecutor",
    },
) as dag:

DAG default_args의 executor에 Executor이름을 넣어 DAG내 모든 Task들에 적용할 수 있습니다.

 

environment:
    AIRFLOW__CORE__PARALLELISM: 3
   AIRFLOW__CORE__EXECUTORLocalExecutor,plugins.fargate_executor.AwsFargateExecutor:FargateExecutor

콜론(:) 뒤에 별칭을 넣어 사용할 수 있습니다.

 

 

이외 변경점들은 Airflow 공식 문서의 Release Note에서 확인할 수 있습니다.

https://airflow.apache.org/docs/apache-airflow/stable/release_notes.html#airflow-2-10-0-2024-08-15

 

전체댓글0

검색결과는 총 26건 입니다.    글쓰기
1 2