비밀번호

커뮤니티2

  • 맑음속초13.6맑음북춘천1.6맑음철원1.1맑음동두천3.4맑음파주2.4맑음대관령4.0맑음춘천1.9황사백령도10.9황사북강릉14.0맑음강릉11.5맑음동해13.3황사서울7.2황사인천7.9맑음원주3.9황사울릉도11.0맑음수원4.9맑음영월1.4맑음충주2.2맑음서산1.1맑음울진9.9황사청주5.1황사대전3.9맑음추풍령1.7황사안동4.7맑음상주5.0황사포항8.7맑음군산3.2황사대구8.1황사전주3.0황사울산8.3맑음창원11.4황사광주5.8맑음부산11.1맑음통영9.0황사목포7.1황사여수8.4황사흑산도6.7구름많음완도6.6구름많음고창1.8구름많음순천6.0황사홍성3.4맑음서청주1.8황사제주9.0구름많음고산9.8구름많음성산9.1흐림서귀포13.4구름많음진주7.8맑음강화6.4맑음양평3.6맑음이천3.6구름많음인제2.7맑음홍천2.9맑음태백4.7맑음정선군1.6맑음제천0.2맑음보은0.8맑음천안1.0맑음보령1.9맑음부여1.2맑음금산1.0맑음세종1.9구름많음부안3.0구름많음임실0.2구름많음정읍2.3구름많음남원1.5구름많음장수-0.6구름많음고창군2.5구름많음영광군3.5맑음김해시10.3구름많음순창군1.9구름많음북창원11.2구름많음양산시12.0맑음보성군6.2구름많음강진군6.0구름많음장흥4.3구름많음해남5.8맑음고흥3.1구름많음의령군3.4구름많음함양군1.0맑음광양시5.6구름많음진도군7.9맑음봉화2.2맑음영주4.0맑음문경3.3맑음청송군2.2맑음영덕7.7맑음의성2.3맑음구미5.0맑음영천6.6구름많음경주시8.5구름많음거창1.7구름많음합천4.1구름많음밀양10.5구름많음산청3.2맑음거제10.9맑음남해8.1구름많음북부산12.2
  • 2026.04.21(화)

데이터 엔지니어링데이터 엔지니어링

[Apache Airflow 2.10.0 Hybrid Executor] 새로 생긴 Multiple Executor 기능을 통해 DAG / Task마다 별도의 Executor로 실행하기

2024년 8월 15일 Airflow의 2.10 버전이 릴리즈되었습니다.

중요한 변경 중 하나는 Hybrid Executor를 구성할 수 있게 된 것입니다.

Airflow는 provider 모듈 포함 많은 Executor를 지원합니다. 각 Executor는 각각 컴퓨팅 효율과 실행시간, 격리 등에 장단점이 있으며 기존의 Airflow에서는 이중 하나의 Executor만을 사용할 수 있었습니다. 

Hybrid Executor를 구성할 수 있음에 따라 DAG 또는 Task는 각각의 워크플로우에 적절한 Executor를 통해 실행될 수 있게 되었습니다.

 

이번 글에서는 단일 Airflow Scheduler 내에서 DAG또는 Task에 따라 여러 Executor를 사용하는 새로운 기능을 소개합니다. 

 

우선 Airflow 구성의 core 항목에서 사용할 executor들을 콤마로 구분하여 정의합니다.

environment:
    AIRFLOW__CORE__PARALLELISM: 3
    AIRFLOW__CORE__EXECUTOR: LocalExecutor,plugins.fargate_executor.AwsFargateExecutor

 

위 예시에서는 LocalExecutor, AwsFargateExecutor 두 Executor를 사용했습니다.

이중 가장 첫 번째의 Executor가 기본적으로 사용되며 DAG또는 Task 내에 실행될 Executor를 명시하지 않는다면 맨 첫 번째의 Executor로 실행되게 됩니다.

 

@task(executor="plugins.fargate_executor.AwsFargateExecutor")
def task_func(**kwargs):
    ...

데코레이터 Task의 경우 task 데코레이터의 파라미터로 Executor의 이름을 넘겨줍니다.

task_op=PythonOperator(
    task_id="t1",
    python_callable=task_func,
    executor="plugins.fargate_executor.AwsFargateExecutor",
)

PythonOperator의 경우 생성자 인자로 executor에 실행할 Executor의 이름을 넘겨줍니다.

 

with DAG(
    dag_id="dag1",
    start_date=pendulum.datetime(2024, 1, 1, 0, 0, 0, tz="Asia/Seoul"),
    schedule_interval=None,
    default_args={
        "executor": "plugins.fargate_executor.AwsFargateExecutor",
    },
) as dag:

DAG default_args의 executor에 Executor이름을 넣어 DAG내 모든 Task들에 적용할 수 있습니다.

 

environment:
    AIRFLOW__CORE__PARALLELISM: 3
   AIRFLOW__CORE__EXECUTORLocalExecutor,plugins.fargate_executor.AwsFargateExecutor:FargateExecutor

콜론(:) 뒤에 별칭을 넣어 사용할 수 있습니다.

 

 

이외 변경점들은 Airflow 공식 문서의 Release Note에서 확인할 수 있습니다.

https://airflow.apache.org/docs/apache-airflow/stable/release_notes.html#airflow-2-10-0-2024-08-15

 

전체댓글0

검색결과는 총 26건 입니다.    글쓰기
1 2