비밀번호

커뮤니티2

  • 맑음속초13.6맑음북춘천1.6맑음철원1.1맑음동두천3.4맑음파주2.4맑음대관령4.0맑음춘천1.9황사백령도10.9황사북강릉14.0맑음강릉11.5맑음동해13.3황사서울7.2황사인천7.9맑음원주3.9황사울릉도11.0맑음수원4.9맑음영월1.4맑음충주2.2맑음서산1.1맑음울진9.9황사청주5.1황사대전3.9맑음추풍령1.7황사안동4.7맑음상주5.0황사포항8.7맑음군산3.2황사대구8.1황사전주3.0황사울산8.3맑음창원11.4황사광주5.8맑음부산11.1맑음통영9.0황사목포7.1황사여수8.4황사흑산도6.7구름많음완도6.6구름많음고창1.8구름많음순천6.0황사홍성3.4맑음서청주1.8황사제주9.0구름많음고산9.8구름많음성산9.1흐림서귀포13.4구름많음진주7.8맑음강화6.4맑음양평3.6맑음이천3.6구름많음인제2.7맑음홍천2.9맑음태백4.7맑음정선군1.6맑음제천0.2맑음보은0.8맑음천안1.0맑음보령1.9맑음부여1.2맑음금산1.0맑음세종1.9구름많음부안3.0구름많음임실0.2구름많음정읍2.3구름많음남원1.5구름많음장수-0.6구름많음고창군2.5구름많음영광군3.5맑음김해시10.3구름많음순창군1.9구름많음북창원11.2구름많음양산시12.0맑음보성군6.2구름많음강진군6.0구름많음장흥4.3구름많음해남5.8맑음고흥3.1구름많음의령군3.4구름많음함양군1.0맑음광양시5.6구름많음진도군7.9맑음봉화2.2맑음영주4.0맑음문경3.3맑음청송군2.2맑음영덕7.7맑음의성2.3맑음구미5.0맑음영천6.6구름많음경주시8.5구름많음거창1.7구름많음합천4.1구름많음밀양10.5구름많음산청3.2맑음거제10.9맑음남해8.1구름많음북부산12.2
  • 2026.04.21(화)

데이터 엔지니어링데이터 엔지니어링

helm chart로 Airflow 운영 시 log를 AWS S3에 저장하기

안녕하세요.

 

Airflow 를 helm chart를 이용하여 운영하고 있는데요.

 

이번에는 Airflow를 운영하면서 쌓이는 log 들을 DB가 아닌 AWS S3에 저장하는 방법을 소개시켜드리려고 해요.

 

이 글을 읽으시는 분들은 이미 Airflow를 운영하면서 사용하시는 helm chart, 즉 yaml 파일 하나를 가지고 있으실 텐데요.

AWS S3에 연결하기 위해서는 yaml 파일에서 설정을 살짝 바꿔야합니다.


스크린샷 2024-03-26 오후 2.40.45.png

 

위 사진 처럼 remote_logging 부분에 'True', remote_base_log_folder 부분에 사용하실 S3 주소를 넣으면 된답니다.

그리고 remote_log_conn_id 에는 사용하실 id값을 자유롭게 적으셔도 돼요.

 

이렇게 수정을 하고 다시 helm chart를 업데이트 해줍니다.

 

이제 남은 것들은 굉장히 간단합니다.

 

Airflow web으로 접속 한 뒤 [Admin > Connections] 메뉴를 클릭합니다.


스크린샷 2024-03-26 오후 2.46.16.png

 

새로운 항목을 추가할건데  위 사진처럼  Connection_id에 yaml파일에 설정한 remote_log_conn_id를,  Connection Type은 Amazon Web Services를 선택해주고,

AccessKey와 Secret Access Key는 사용하는 값들을 잘 입력해주면 됩니다.

 

이렇게하면 Airflow에서 나오는 log들이 S3에 저장됩니다.

 

 

전체댓글0

검색결과는 총 26건 입니다.    글쓰기
1 2