비밀번호

커뮤니티2

  • 구름많음속초23.2구름많음북춘천17.5구름많음철원17.7맑음동두천19.1맑음파주18.3맑음대관령16.2구름많음춘천18.9맑음백령도16.9맑음북강릉22.9구름조금강릉23.6맑음동해20.1맑음서울18.5맑음인천16.7맑음원주17.9맑음울릉도16.4맑음수원18.2맑음영월17.0맑음충주18.6맑음서산17.8맑음울진17.2맑음청주19.0맑음대전19.0맑음추풍령18.1맑음안동17.6맑음상주20.0맑음포항20.0맑음군산19.0맑음대구19.5맑음전주20.0맑음울산19.0맑음창원19.8맑음광주19.3맑음부산17.9맑음통영18.7맑음목포17.5맑음여수17.6맑음흑산도17.5맑음완도21.4맑음고창19.2맑음순천19.1맑음홍성19.3맑음서청주17.5맑음제주19.0맑음고산17.2맑음성산20.4맑음서귀포19.1맑음진주19.6맑음강화17.4구름많음양평16.9맑음이천19.2구름많음인제18.1구름조금홍천18.3맑음태백17.1구름많음정선군19.9맑음제천17.8맑음보은18.4맑음천안19.0맑음보령18.3맑음부여18.8맑음금산18.9맑음세종19.1맑음부안19.6맑음임실18.8맑음정읍20.2맑음남원18.8맑음장수18.8맑음고창군19.9맑음영광군19.6맑음김해시20.2맑음순창군18.9맑음북창원21.1맑음양산시19.4맑음보성군21.6맑음강진군21.3맑음장흥20.9맑음해남20.1맑음고흥19.8맑음의령군19.7맑음함양군21.4맑음광양시19.4맑음진도군19.1맑음봉화18.5맑음영주18.5맑음문경19.1맑음청송군18.8맑음영덕20.9맑음의성19.0맑음구미20.9맑음영천19.2맑음경주시20.3맑음거창19.4맑음합천19.8맑음밀양19.4맑음산청20.3맑음거제19.2맑음남해19.0맑음북부산19.9
  • 2024.05.09(목)

데이터 엔지니어링데이터 엔지니어링

helm chart로 Airflow 운영 시 log를 AWS S3에 저장하기

안녕하세요.

 

Airflow 를 helm chart를 이용하여 운영하고 있는데요.

 

이번에는 Airflow를 운영하면서 쌓이는 log 들을 DB가 아닌 AWS S3에 저장하는 방법을 소개시켜드리려고 해요.

 

이 글을 읽으시는 분들은 이미 Airflow를 운영하면서 사용하시는 helm chart, 즉 yaml 파일 하나를 가지고 있으실 텐데요.

AWS S3에 연결하기 위해서는 yaml 파일에서 설정을 살짝 바꿔야합니다.


스크린샷 2024-03-26 오후 2.40.45.png

 

위 사진 처럼 remote_logging 부분에 'True', remote_base_log_folder 부분에 사용하실 S3 주소를 넣으면 된답니다.

그리고 remote_log_conn_id 에는 사용하실 id값을 자유롭게 적으셔도 돼요.

 

이렇게 수정을 하고 다시 helm chart를 업데이트 해줍니다.

 

이제 남은 것들은 굉장히 간단합니다.

 

Airflow web으로 접속 한 뒤 [Admin > Connections] 메뉴를 클릭합니다.


스크린샷 2024-03-26 오후 2.46.16.png

 

새로운 항목을 추가할건데  위 사진처럼  Connection_id에 yaml파일에 설정한 remote_log_conn_id를,  Connection Type은 Amazon Web Services를 선택해주고,

AccessKey와 Secret Access Key는 사용하는 값들을 잘 입력해주면 됩니다.

 

이렇게하면 Airflow에서 나오는 log들이 S3에 저장됩니다.

 

 

전체댓글0

검색결과는 총 12건 입니다.    글쓰기
1