비밀번호

커뮤니티2

  • 맑음속초13.3맑음북춘천3.0맑음철원2.7맑음동두천4.3맑음파주5.3맑음대관령6.4맑음춘천3.1황사백령도10.8황사북강릉11.5맑음강릉13.0맑음동해13.5황사서울7.6황사인천8.1맑음원주4.1황사울릉도12.1맑음수원5.9맑음영월3.0맑음충주3.7맑음서산2.9맑음울진10.3황사청주5.9황사대전5.1맑음추풍령2.5황사안동5.0맑음상주5.4황사포항9.4맑음군산4.6황사대구8.4황사전주4.7황사울산8.7황사창원10.8황사광주6.8구름많음부산11.1구름많음통영8.9황사목포6.8황사여수8.6황사흑산도7.4구름많음완도6.4맑음고창2.8구름많음순천7.0황사홍성5.2맑음서청주3.4황사제주9.7맑음고산10.0구름많음성산10.9구름많음서귀포13.7구름많음진주7.2맑음강화7.5맑음양평4.1맑음이천4.2맑음인제4.5맑음홍천2.9맑음태백9.0맑음정선군3.2맑음제천2.0맑음보은1.4맑음천안2.7맑음보령3.9맑음부여2.3맑음금산1.8맑음세종3.0맑음부안5.0구름많음임실0.9맑음정읍3.8구름많음남원2.6구름많음장수0.0맑음고창군4.5구름많음영광군3.4구름많음김해시10.8구름많음순창군2.7구름많음북창원10.7구름많음양산시11.9구름많음보성군6.4구름많음강진군5.3구름많음장흥4.0흐림해남5.6구름많음고흥4.3구름많음의령군4.3구름많음함양군2.2구름많음광양시6.8흐림진도군7.8맑음봉화2.0맑음영주4.2맑음문경4.3맑음청송군3.1구름많음영덕8.8맑음의성3.4맑음구미6.5맑음영천6.8구름많음경주시8.7구름많음거창2.5구름많음합천4.7구름많음밀양9.3구름많음산청4.7구름많음거제11.8구름많음남해10.0구름많음북부산11.9
  • 2026.04.21(화)

데이터 엔지니어링데이터 엔지니어링

helm chart로 Airflow 운영 시 log를 AWS S3에 저장하기

안녕하세요.

 

Airflow 를 helm chart를 이용하여 운영하고 있는데요.

 

이번에는 Airflow를 운영하면서 쌓이는 log 들을 DB가 아닌 AWS S3에 저장하는 방법을 소개시켜드리려고 해요.

 

이 글을 읽으시는 분들은 이미 Airflow를 운영하면서 사용하시는 helm chart, 즉 yaml 파일 하나를 가지고 있으실 텐데요.

AWS S3에 연결하기 위해서는 yaml 파일에서 설정을 살짝 바꿔야합니다.


스크린샷 2024-03-26 오후 2.40.45.png

 

위 사진 처럼 remote_logging 부분에 'True', remote_base_log_folder 부분에 사용하실 S3 주소를 넣으면 된답니다.

그리고 remote_log_conn_id 에는 사용하실 id값을 자유롭게 적으셔도 돼요.

 

이렇게 수정을 하고 다시 helm chart를 업데이트 해줍니다.

 

이제 남은 것들은 굉장히 간단합니다.

 

Airflow web으로 접속 한 뒤 [Admin > Connections] 메뉴를 클릭합니다.


스크린샷 2024-03-26 오후 2.46.16.png

 

새로운 항목을 추가할건데  위 사진처럼  Connection_id에 yaml파일에 설정한 remote_log_conn_id를,  Connection Type은 Amazon Web Services를 선택해주고,

AccessKey와 Secret Access Key는 사용하는 값들을 잘 입력해주면 됩니다.

 

이렇게하면 Airflow에서 나오는 log들이 S3에 저장됩니다.

 

 

전체댓글0

검색결과는 총 26건 입니다.    글쓰기
1 2