안녕하세요! 2022년 10월 출시 정보를 알려드립니다!
데이터 카탈로그
메타데이터 CSV 불러오기 지원🎉
기본 메타데이터 값을 CSV 파일로 가져올 수 있게 되었습니다🎉.
아래에서는 간단하게 가져오기 절차를 소개합니다.
CSV 파일의 형식 및 이용 제약 등 자세한 내용은 메타데이터 가져오 기를 참고하세요.
-
형식에 맞는 CSV 파일을 준비합니다.

-
데이터 카탈로그 설정 > 메타데이터 가져오기를 클릭합니다.
-
가져오기 대상을 선택하고 CSV 파일 업로드 가져오기를 실행합니다.

-
가져오기에 성공하면 아래와 같이 기본 메타데이터 값이 덮어씌워집니다.

요약 통계 정보 표시 강화
날짜/시간에 대한 타입의 최소값과 최대값을 표시하도록 변경되었습니다.
요약 통계 정보는 테이블 정보의 '컬럼 정보', '미리보기' 등에서 확인할 수 있다.

연결 정보
Oracle Autonomous Database 연결 지원
Oracle Database 연결 정보에서 '연결 방법'에서 tnsnames.ora 파일 사용을 선택하면 지갑 파일을 업로드할 수 있게 되었습니다.
지갑 파일을 업로드하면 Oracle Autonomous Database에 접속할 수 있습니다.

전송 설정
전송 대상 BigQuery 테이블 분할 파티션 기능 강화 🎉
전송 대상 Google BigQuery의 전송 설정 STEP2 '출력 옵션'에서 테이블 분할 파티션의 기준이 되는 시간 단위를 보다 세밀하게 설정할 수 있게 되었습니다.
- 이번 변경으로 테이블 분할의 시간 단위를 4가지(시간, 일, 월, 월, 년 ) 중에서 선택할 수 있게 되었습니다.
- 수집 시간에 따른 분할, 시간 단위 열에 따른 분할, 어느 분할 방식에서도 위의 4종류의 시간 단위 테이블 분할에 대응하고 있습니다.
테이블을 세분화하여 쿼리 실행 성능을 향상시키고 쿼리 실행 비용을 절감할 수 있습니다.
분할 테이블에 대한 자세한 내용은 분할 테이블 개요를 참조하세요.

워크플로우
Amazon Redshift의 쿼리를 이용한 루프 실행을 지원합니다🎉.
- Amazon Redshift의 쿼리 결과를 기반으로 워크플로우의 작업을 반복적으로 실행할 수 있게 되었습니다.
- Amazon Redshift의 쿼리 결과를 기반으로 루프 실행 시 사용자 지정 변수의 확장 값을 설정할 수 있습니다.
- 커스텀 변수의 전개 값이 실행할 때마다 변동하는 워크플로우를 정의할 수 있습니다.
다음은 루프 실행을 설정하는 간단한 절차를 소개합니다.
1. 워크플로우 정의의 흐름 편집 화면에서 루프 실행을 원하는 작업의 버튼을 아래와 같이 클릭합니다.

-
사용자 지정 변수에서 루프 실행을 활성화하고, 루프 유형에서 Amazon Redshift의 쿼리 결과에서 루프를 선택합니다.

-
대상 사용자 정의 변수에서 원하는 사용자 정의 변수를 지정합니다.

-
각종 항목을 입력하고 저장을 클릭합니다.

**이번 릴리스 내용은 이상입니다. **
**관심 있는 릴리스가 있으시면 언제든지 고객 성공 담당자에게 연락 주시기 바랍니다. **
Happy Data Engineering!