비밀번호

커뮤니티2

  • 맑음속초23.4맑음북춘천21.0맑음철원19.0맑음동두천18.0맑음파주17.2맑음대관령16.0맑음춘천20.9맑음백령도16.8맑음북강릉23.4맑음강릉23.6맑음동해24.0맑음서울19.1맑음인천15.4맑음원주21.3구름조금울릉도15.3맑음수원19.3맑음영월20.2맑음충주21.6맑음서산16.8맑음울진23.7맑음청주22.2맑음대전19.9맑음추풍령20.1맑음안동21.7맑음상주21.5맑음포항24.2맑음군산17.7맑음대구24.5맑음전주19.9맑음울산19.6맑음창원20.0맑음광주20.6맑음부산18.9맑음통영18.7맑음목포18.4맑음여수19.9맑음흑산도17.1맑음완도20.0맑음고창18.3맑음순천20.5맑음홍성17.3맑음서청주20.5구름조금제주19.7맑음고산17.7맑음성산19.9구름조금서귀포20.5맑음진주21.5맑음강화15.0맑음양평20.8맑음이천21.0맑음인제20.6맑음홍천21.2맑음태백16.7맑음정선군20.7맑음제천19.9맑음보은20.3맑음천안20.5맑음보령15.5맑음부여18.4맑음금산19.4맑음세종20.0맑음부안18.5맑음임실19.8맑음정읍18.4맑음남원21.3맑음장수18.7맑음고창군18.6맑음영광군17.7맑음김해시20.5맑음순창군21.5맑음북창원20.8맑음양산시21.0맑음보성군21.4맑음강진군21.2맑음장흥20.4맑음해남19.0맑음고흥22.0맑음의령군22.6맑음함양군22.2맑음광양시22.5맑음진도군17.4맑음봉화19.7맑음영주20.5맑음문경21.3맑음청송군21.4맑음영덕22.5맑음의성22.3맑음구미22.3맑음영천22.4맑음경주시24.7맑음거창20.9맑음합천24.1맑음밀양22.7맑음산청22.4맑음거제18.3맑음남해20.9맑음북부산20.0
  • 2024.05.09(목)

데이터 엔지니어링데이터 엔지니어링

helm chart로 Airflow 운영 시 log를 AWS S3에 저장하기

안녕하세요.

 

Airflow 를 helm chart를 이용하여 운영하고 있는데요.

 

이번에는 Airflow를 운영하면서 쌓이는 log 들을 DB가 아닌 AWS S3에 저장하는 방법을 소개시켜드리려고 해요.

 

이 글을 읽으시는 분들은 이미 Airflow를 운영하면서 사용하시는 helm chart, 즉 yaml 파일 하나를 가지고 있으실 텐데요.

AWS S3에 연결하기 위해서는 yaml 파일에서 설정을 살짝 바꿔야합니다.


스크린샷 2024-03-26 오후 2.40.45.png

 

위 사진 처럼 remote_logging 부분에 'True', remote_base_log_folder 부분에 사용하실 S3 주소를 넣으면 된답니다.

그리고 remote_log_conn_id 에는 사용하실 id값을 자유롭게 적으셔도 돼요.

 

이렇게 수정을 하고 다시 helm chart를 업데이트 해줍니다.

 

이제 남은 것들은 굉장히 간단합니다.

 

Airflow web으로 접속 한 뒤 [Admin > Connections] 메뉴를 클릭합니다.


스크린샷 2024-03-26 오후 2.46.16.png

 

새로운 항목을 추가할건데  위 사진처럼  Connection_id에 yaml파일에 설정한 remote_log_conn_id를,  Connection Type은 Amazon Web Services를 선택해주고,

AccessKey와 Secret Access Key는 사용하는 값들을 잘 입력해주면 됩니다.

 

이렇게하면 Airflow에서 나오는 log들이 S3에 저장됩니다.

 

 

전체댓글0

검색결과는 총 12건 입니다.    글쓰기
1