비밀번호

커뮤니티2

  • 흐림속초14.8흐림북춘천21.9구름많음철원21.1흐림동두천20.6흐림파주21.8흐림대관령18.0흐림춘천22.1구름많음백령도14.3흐림북강릉15.9흐림강릉16.4흐림동해16.3흐림서울21.7흐림인천19.1흐림원주22.2흐림울릉도17.3구름많음수원23.1구름많음영월22.4구름많음충주23.9구름많음서산22.8흐림울진16.8구름많음청주24.2구름많음대전24.8구름조금추풍령25.0구름조금안동24.8구름많음상주25.6구름많음포항19.3구름조금군산22.6구름많음대구27.0맑음전주25.8구름많음울산23.8구름많음창원29.4구름많음광주27.9구름많음부산25.6구름많음통영24.8구름조금목포25.1구름많음여수27.6구름조금흑산도23.3구름많음완도28.9구름조금고창구름많음순천27.4구름많음홍성23.6구름많음서청주23.4흐림제주24.3흐림고산21.4구름많음성산24.0흐림서귀포23.5구름많음진주30.1구름많음강화18.9흐림양평22.7흐림이천23.4흐림인제20.7흐림홍천21.1구름조금태백22.6구름많음정선군24.6구름많음제천21.9구름많음보은23.7구름많음천안23.9구름조금보령25.0구름많음부여25.4구름많음금산24.9구름많음세종24.3맑음부안24.8구름조금임실26.7맑음정읍26.6구름조금남원28.2구름조금장수25.9맑음고창군26.5구름조금영광군25.2구름많음김해시29.7구름조금순창군27.8구름조금북창원30.9구름조금양산시31.5구름많음보성군29.8구름많음강진군29.7구름많음장흥28.8구름많음해남27.3구름많음고흥29.4구름조금의령군31.4구름조금함양군28.9구름많음광양시30.7구름많음진도군26.5구름조금봉화22.9구름많음영주23.7구름많음문경24.8구름조금청송군25.8구름많음영덕17.8구름많음의성26.0구름조금구미26.4구름조금영천27.4구름많음경주시29.0구름조금거창28.9구름조금합천30.5구름조금밀양30.5구름조금산청30.5구름조금거제28.4구름많음남해28.4구름많음북부산29.5
  • 2024.05.20(월)

데이터 엔지니어링데이터 엔지니어링

helm chart로 Airflow 운영 시 log를 AWS S3에 저장하기

안녕하세요.

 

Airflow 를 helm chart를 이용하여 운영하고 있는데요.

 

이번에는 Airflow를 운영하면서 쌓이는 log 들을 DB가 아닌 AWS S3에 저장하는 방법을 소개시켜드리려고 해요.

 

이 글을 읽으시는 분들은 이미 Airflow를 운영하면서 사용하시는 helm chart, 즉 yaml 파일 하나를 가지고 있으실 텐데요.

AWS S3에 연결하기 위해서는 yaml 파일에서 설정을 살짝 바꿔야합니다.


스크린샷 2024-03-26 오후 2.40.45.png

 

위 사진 처럼 remote_logging 부분에 'True', remote_base_log_folder 부분에 사용하실 S3 주소를 넣으면 된답니다.

그리고 remote_log_conn_id 에는 사용하실 id값을 자유롭게 적으셔도 돼요.

 

이렇게 수정을 하고 다시 helm chart를 업데이트 해줍니다.

 

이제 남은 것들은 굉장히 간단합니다.

 

Airflow web으로 접속 한 뒤 [Admin > Connections] 메뉴를 클릭합니다.


스크린샷 2024-03-26 오후 2.46.16.png

 

새로운 항목을 추가할건데  위 사진처럼  Connection_id에 yaml파일에 설정한 remote_log_conn_id를,  Connection Type은 Amazon Web Services를 선택해주고,

AccessKey와 Secret Access Key는 사용하는 값들을 잘 입력해주면 됩니다.

 

이렇게하면 Airflow에서 나오는 log들이 S3에 저장됩니다.

 

 

전체댓글0

검색결과는 총 13건 입니다.    글쓰기
1