전용 Exadata 인프라의 자율운영 AI 데이터베이스 청구

Oracle Autonomous AI Database on Dedicated Exadata Infrastructure는 특정 알고리즘을 사용하여 Autonomous AI Database에서 사용하는 컴퓨트 사용을 할당하고 청구합니다. 이러한 알고리즘을 이해하면 가장 비용 효율적인 방식으로 성능 목표를 달성하도록 자율운영 AI 데이터베이스를 생성 및 구성하는 최선의 방법을 결정하는 데 도움이 될 수 있습니다.

CPU 청구 세부정보

전용 Exadata 인프라의 Oracle Autonomous AI Database는 다음과 같이 CPU 청구를 계산합니다.

  1. 자율운영 AI 데이터베이스에 대한 CPU 사용량은 초당 전체 ECPU 또는 OCPU 단위로 측정됩니다.
    1. 정지된 Autonomous AI Database는 제로 ECPU 또는 OCPU를 사용합니다. 자율운영 AI 데이터베이스가 정지되면 비용이 청구되지 않습니다.
    2. 실행 중인 Autonomous AI Database는 자동 스케일링으로 인해 할당된 수의 ECPU 또는 OCPU와 추가 ECPU 또는 OCPU를 사용합니다. 자율운영 AI 데이터베이스가 실행 중인 경우 초기 생성 시 지정되었든 나중에 수동 확장 작업에 의해 지정되었든 관계없이 데이터베이스에 현재 할당된 CPU 수에 대해 비용이 청구됩니다. 또한 데이터베이스에 대해 자동 스케일링이 사용으로 설정된 경우 데이터베이스가 자동으로 스케일 업된 결과로 사용하는 추가 CPU에 대해 초당 비용이 청구됩니다.

      주:

      AVMC 및 ACD 리소스 생성은 청구를 시작하지 않습니다. 따라서 AVMC에 총 CPU 수를 지정하고 각 ACD를 만들 때 노드당 8개의 ECPU 또는 2개의 OCPU를 소비하더라도 이러한 CPU는 비용이 청구되지 않습니다. AVMC 및 기본 ACD에서 자율운영 AI 데이터베이스를 프로비저닝하고 해당 데이터베이스가 활성 상태인 경우에만 사용된 CPU가 청구됩니다. 따라서 AVMC 내에 ACD를 생성하여 비용 발생에 대한 걱정 없이 비즈니스 라인, 기능 영역 또는 기타 기술에 따라 데이터베이스를 구성하고 그룹화할 수 있습니다.
    3. 자율운영 AI 데이터베이스를 생성할 때 기본적으로 Oracle은 노드 장애 발생 시에도 데이터베이스가 최소 50%의 용량으로 실행될 수 있도록 추가 CPU를 예약합니다. ACD를 프로비저닝하는 동안 노드 간에 예약된 CPU의 비율을 0% 또는 25%로 변경할 수 있습니다. 지침은 자율운영 컨테이너 데이터베이스 생성노드 페일오버 예약을 참조하십시오. 이러한 추가 CPU는 과금에 포함되지 않습니다.

    주:

    Oracle Database@AWS 기반 전용 Exadata 인프라의 자율운영 AI 데이터베이스는 ECPU 컴퓨트 모델만 지원합니다.
  2. 초당 측정값은 각 자율운영 AI 데이터베이스의 각 시간 간격에 걸쳐 평균화됩니다.
  3. 전체 자율운영 VM 클러스터 리소스에서 시간당 CPU 사용량을 확인하기 위해 자율운영 AI 데이터베이스의 시간당 평균이 함께 추가됩니다.
다음과 같은 항목이 권장됩니다.

탄력적 풀 청구

탄력적 풀을 사용하면 컴퓨트 리소스 청구 측면에서 자율운영 AI 데이터베이스 인스턴스를 통합할 수 있습니다.

자율운영 AI 데이터베이스 인스턴스에 적용되는 경우를 제외하고 이동 전화 서비스 "가족 계획"과 같은 탄력적 풀을 생각할 수 있습니다. 각 데이터베이스에 대해 개별적으로 지불하는 대신 데이터베이스는 하나의 인스턴스, 리더가 전체 풀과 연관된 컴퓨트 사용량에 대해 요금을 부과하는 풀로 그룹화됩니다. 탄력적 리소스 풀에 대한 자세한 내용은 탄력적 풀을 사용하여 자율운영 AI 데이터베이스 인스턴스 통합을 참조하십시오.

탄력적 리소스 풀 사용:

  • 풀 리더에게 비용이 청구되며, 탄력적 리소스 풀 크기와 풀 리더 및 멤버의 실제 시간별 ECPU 사용량에 따라 비용이 청구됩니다.
  • 풀 크기를 초과할 수 있습니다(풀 용량은 풀 크기보다 최대 4배 더 클 수 있음).
  • 청구는 컴퓨트 리소스, 즉 ECPU 사용량으로만 이루어지며, 모든 컴퓨트 사용량은 풀 리더인 Autonomous AI Database 인스턴스에 부과됩니다.

탄력적 풀을 사용하면 선택한 풀 크기에 대해 최대 4배의 ECPU 수를 프로비저닝할 수 있으며, 데이터베이스 인스턴스당 최소 1개의 ECPU로 탄력적 풀에 있는 데이터베이스 인스턴스를 프로비저닝할 수 있습니다. 탄력적 풀 외부에서 데이터베이스 인스턴스당 최소 ECPU 수는 ECPU 2개입니다. 예를 들어 풀 크기가 128인 경우 512개의 자율운영 AI 데이터베이스 인스턴스를 프로비저닝할 수 있습니다(각 인스턴스에 ECPU가 1개 있는 경우). 이 예에서는 512개의 자율운영 AI 데이터베이스 인스턴스에 액세스할 수 있는 동안 128개의 ECPU 풀 크기에 따라 풀 크기 컴퓨트 리소스에 대해 요금이 청구됩니다. 반면, 탄력적 풀을 사용하지 않고 512개의 자율운영 AI 데이터베이스 인스턴스를 개별적으로 프로비저닝하는 경우 각 자율운영 AI 데이터베이스 인스턴스에 대해 최소 2개의 ECPU를 할당해야 합니다. 이 예에서는 1024개의 ECPU에 대해 비용을 지불합니다. 탄력적 풀을 사용하면 최대 87%의 컴퓨트 비용을 절감할 수 있습니다.

탄력적 풀을 생성한 후 지정된 시간에 대한 총 ECPU 사용량은 풀 리더인 자율운영 AI 데이터베이스 인스턴스에 부과됩니다. 풀 리더를 제외하고, 풀 멤버인 개별 자율운영 AI 데이터베이스 인스턴스는 탄력적 풀의 멤버인 동안 ECPU 사용량에 대해 요금이 부과되지 않습니다.

탄력적 풀 청구는 다음과 같습니다.

  • 총 집계된 최대 ECPU 활용률이 지정된 시간 동안 풀 크기보다 작거나 같으면 ECPU의 풀 크기 수(풀 크기의 1배)에 대해 요금이 부과됩니다.
  • 탄력적 풀이 만들어진 후 풀 멤버 데이터베이스와 풀 리더가 중지되더라도 ECPU 청구는 풀 크기 비율의 최소 1회에 계속됩니다.
  • 즉, 풀의 집계된 최대 ECPU 활용률이 지정된 시간 동안 풀 크기보다 작거나 같은 경우 ECPU의 풀 크기 수(풀 크기의 1배)에 대해 요금이 부과됩니다. 이는 해당 데이터베이스가 탄력적 풀을 사용하지 않고 별도로 청구되는 경우 대비 최대 87%의 컴퓨팅 비용 절감을 나타냅니다.
  • 풀 리더의 집계된 최대 ECPU 활용률 및 멤버가 지정된 청구 시간 내 특정 시점의 풀 크기를 초과하는 경우:
    • 풀의 집계된 최대 ECPU 활용률이 ECPU 풀 크기 수의 2배 이하입니다. 1배 이상인 사용량의 경우 지정된 청구 시간에 ECPU 수의 최대 2배를 포함하여 ECPU의 풀 크기 수입니다. 시간별 청구는 ECPU 풀 크기 수의 2배입니다. 즉, 풀의 집계된 피크 ECPU 활용률이 풀 크기를 초과하지만 지정된 시간 동안 풀 크기의 2배보다 작거나 같은 경우 ECPU의 풀 크기 수(풀 크기의 2배)의 2배가 청구됩니다. 이는 해당 데이터베이스가 탄력적 풀을 사용하지 않고 별도로 청구되는 경우보다 최대 75%의 컴퓨트 비용 절감을 나타냅니다.
    • 풀의 집계된 최대 ECPU 활용률은 ECPU의 풀 크기 수의 4배 이하입니다. 풀의 2배 이상인 사용량의 경우 주어진 청구 시간에 ECPU의 풀 크기 수 최대 4배를 포함하여 ECPU의 크기 수, 시간별 청구는 ECPU의 풀 크기 수의 4배입니다. 즉, 풀의 집계된 피크 ECPU 활용률이 지정된 시간 동안 풀 크기의 두 배를 초과하면 풀 크기 ECPU 수의 네 배(풀 크기의 4배)에 대해 요금이 부과됩니다. 이는 해당 데이터베이스가 탄력적 풀을 사용하지 않고 별도로 청구되는 경우 대비 최대 50%의 컴퓨팅 비용 절감을 나타냅니다.
  • 예를 들어, 풀 크기가 128개 ECPU이고 풀 용량이 512개 ECPU인 탄력적 풀을 고려해 보십시오.
    • 사례-1: 풀 리더 및 멤버의 집계된 피크 ECPU 활용률은 오후 2:00 - 오후 2:30 - 오후 3:00 - ECPU 128개 사이에 오후 2:30 - 오후 3:00입니다.
      • 탄력적 풀에는 이 청구 시간(오후 2~3시)에 대해 풀 크기의 1회인 128개의 ECPU가 청구됩니다. 이 경우 청구 시간 동안 탄력적 풀의 최대 집계 ECPU 사용량이 128개 ECPU보다 작거나 같은 경우에 적용됩니다.
    • 사례 2: 풀 리더 및 멤버의 집계된 피크 ECPU 활용률은 오후 2:00 - 오후 2:30 - 오후 250 - 오후 2:30 - 오후 3:00 사이에 ECPU 40개입니다.
      • 탄력적 풀에는 이 청구 시간(오후 2~3시)에 대한 풀 크기의 2배인 256개 ECPU가 청구됩니다. 이 경우 청구 시간 동안 탄력적 풀의 최대 집계 ECPU 사용량이 256개 ECPU보다 작거나 같고 128개 ECPU보다 큰 경우에 적용됩니다.
    • 사례-3: 풀 리더 및 멤버의 집계된 피크 ECPU 활용률은 오후 2시부터 오후 2시 30분까지 ECPU 80개, 오후 2시 30분부터 오후 3시까지 ECPU 509개입니다.
      • 탄력적 풀에는 이 청구 시간(오후 2~3시) 동안 풀 크기의 4배인 512개 ECPU가 청구됩니다. 이 경우 청구 시간 동안 탄력적 풀의 최대 집계 ECPU 사용량이 512개 ECPU보다 작거나 같고 256개 ECPU보다 큰 경우에 적용됩니다.

자세한 내용은 자율운영 AI 데이터베이스에서 탄력적 리소스 풀을 사용하여 최대 87%의 컴퓨트 비용 절감 달성 방법을 참조하십시오.

풀이 생성되거나 종료될 때의 탄력적 풀 청구

탄력적 풀이 만들어지거나 종료되면 탄력적 풀에 대한 전체 시간 동안 리더에 비용이 청구됩니다. 또한 풀에서 추가되거나 제거된 개별 인스턴스는 인스턴스가 탄력적 풀에 없는 동안 발생하는 모든 컴퓨트 사용량에 대해 요금이 청구됩니다(이 경우 청구는 개별 자율운영 AI 데이터베이스 인스턴스에 적용됩니다).

  • 풀 만들기 예: ECPU가 4개인 자율운영 AI 데이터베이스 인스턴스가 탄력적 풀의 일부가 아니라고 가정합니다. 오후 2시 15분에 풀 크기가 128개 ECPU인 이 인스턴스로 탄력적 풀을 만들면 인스턴스가 풀 리더가 됩니다. 자율운영 AI 데이터베이스가 오후 2시에서 3시 사이에 유휴 상태이고 풀에 다른 자율운영 AI 데이터베이스 인스턴스가 없다고 가정하면 오후 2시에서 3시 사이의 시간 요금은 다음과 같습니다.
    • 오후 2시에서 오후 3시까지의 기간에 대한 청구는 (4 * 0.25) + 128 = 129 ECPU입니다.
    • 여기서 (4 * 0.25)는 Autonomous AI Database 인스턴스가 탄력적 풀을 생성하기 15분 전(오후 2~2:15 기간 동안 VM 클러스터에 대해 인스턴스가 청구됨) 컴퓨트에 대한 청구이며, ECPU 128개는 탄력적 풀이 생성된 시간 동안의 청구입니다.
  • 풀 종료 예: ECPU가 4개인 자율운영 AI 데이터베이스 인스턴스가 탄력적 풀의 리더이고, 풀 크기가 ECPU 128개라고 가정합니다. 오후 4시 30분에 탄력적 풀을 종료하면 데이터베이스가 탄력적 풀의 일부가 아닌 독립형 자율운영 AI 데이터베이스 인스턴스가 됩니다. 자율운영 AI 데이터베이스가 오후 4시에서 5시 사이에 유휴 상태이고 풀에 다른 자율운영 AI 데이터베이스 인스턴스가 없다고 가정하면 오후 4시에서 5시 사이의 시간 요금이 다음과 같습니다.
    • 오후 4시부터 오후 5시까지의 요금은 (4 * 0.5) + 128 = 130 ECPU입니다.
    • 여기서 (4 * 0.5)는 Autonomous AI Database 인스턴스가 탄력적 풀을 종료한 후 30분 동안의 컴퓨트 비용 청구이고, 128개의 ECPU는 탄력적 풀이 종료된 시간 동안의 탄력적 풀 비용 청구입니다.
    • 자율운영 AI 데이터베이스 인스턴스가 풀을 벗어나면 VM 클러스터의 일부가 되고 VM 클러스터에 대해 비용이 청구됩니다.

풀 구성원 또는 리더가 풀을 나갈 때 탄력적 풀 청구

탄력적 풀을 남겨 두는 자율운영 AI 데이터베이스 인스턴스에 대한 청구는 개별 인스턴스가 사용하는 컴퓨트 리소스를 기반으로 개별 인스턴스 청구로 돌아갑니다.
  • ECPU가 두 개 이상인 풀 멤버가 풀에서 나갈 경우 개별 인스턴스의 ECPU 할당은 그대로 유지되며 해당 수의 ECPU에 대해 인스턴스에 대한 비용이 청구됩니다.
  • ECPU가 1개인 풀 멤버가 풀에서 나가는 경우 ECPU 할당은 2개의 ECPU로 자동으로 설정되며, 확장되지 않는 한 2개의 ECPU에 대해 인스턴스가 청구됩니다.