Antes de Começar a Usar Pontos Finais SQL do Serviço Data Flow

Para usar Pontos Finais SQL do Serviço Data Flow, você deve ter:

  • Uma conta no Oracle Cloud Infrastructure. As contas de avaliação podem ser usadas para mostrar o serviço Data Flow.
  • Uma atribuição de Administrador de Serviço para os serviços do Oracle Cloud. Quando o serviço é ativado, as credenciais e o URL são enviados ao Administrador da Conta escolhido. O Administrador da Conta cria uma conta para cada usuário que precisa de acesso ao serviço.
  • Um browser suportado, como:
    • Microsoft Internet Explorer 11.x ou mais recentes

    • Mozilla Firefox ESR 38 ou mais recente

    • Google Chrome 42 ou posterior

    Observação

    Para a interface do usuário do Spark, use apenas o Google Chrome.
  • Dados para processamento carregados no Object Storage. Os dados podem ser lidos de origens ou serviços de nuvem externos. Os Pontos Finais SQL do serviço Data Flow otimizam o desempenho e a segurança dos dados armazenados no Object Storage.

Observação

Evite digitar informações confidenciais ao designar descrições, tags ou nomes amigáveis aos recursos na nuvem por meio da Console, API ou CLI do Oracle Cloud Infrastructure. Ele se aplica ao criar ou editar aplicativos no serviço Data Flow.

Noções Básicas sobre Pontos Finais SQL

O Ponto Final SQL do serviço Data Flow é uma entidade de serviço que usa clusters de computação de longa execução em sua tenancy. Você escolhe uma forma de computação e quantas instâncias deseja usar. Cada cluster é executado até que um administrador o interrompa. O Spark é executado no cluster. Seu mecanismo SQL é rápido, se integra ao serviço Data Flow e suporta dados não estruturados. Você se conecta usando ODBC ou JDBC, autentique-se com credenciais do IAM.

O Que São Pontos Finais SQL do Serviço Data Flow

Os Pontos Finais SQL do Data Flow se destinam a desenvolvedores, cientistas de dados e analistas avançados para consultar dados de modo interativo diretamente onde eles residem no data lake. Esses dados são relacionais, semi-estruturados e não estruturados, como logs, fluxos de sensores e fluxos de vídeo normalmente armazenados no armazenamento de objetos. À medida que o volume e a complexidade dos dados aumentam, as ferramentas para explorar e analisar dados no data lake em formatos nativos, em vez de transformá-los ou movê-los, tornam-se importantes. Usando Pontos Finais SQL do serviço Data Flow, você pode processar economicamente grandes quantidades de dados brutos, com segurança nativa da nuvem usada para controlar o acesso. Você pode acessar os insights de que precisam de forma self-service, sem a necessidade de coordenar projetos complexos de TI ou se preocupar com dados obsoletos. As consultas nos Pontos Finais SQL do serviço Data Flow interoperam perfeitamente com o Batch do serviço Data Flow para pipelines de produção programados. Eles permitem análises de dados rápidas e usam clusters de computação de dimensionamento automático de longa execução que são fixos em tamanho e executados até serem interrompidos pelo administrador.

Pontos Finais SQL do Data Flow:
  • Forneça análises interativas diretamente no data lake.
  • São construídos no Spark para expansão, leitura e gravação fáceis de dados não estruturados e interoperabilidade com o Data Flow existente.
  • Usa SQL para facilitar a análise.
  • Ofereça suporte às principais ferramentas de BI (Business Intelligence) usando conexões ODBC ou JDBC com credenciais do IAM.
  • Use dados para processamento carregados no Object Storage. Os dados podem ser lidos de origens ou serviços de nuvem externos.

Os Pontos Finais SQL do serviço Data Flow suportam todos os mesmos tipos de arquivo suportados pelo Spark. Por exemplo, JSON, Parquet, CSV e Avro.