Usando o Code Editor

Saiba mais sobre o serviço Data Flow e o Oracle Cloud Infrastructure Code Editor.

O Code Editor fornece um rico ambiente de edição na Console, incluindo realce de sintaxe, conclusões inteligentes, correspondência de colchetes, linting, navegação de código (ir para a definição do método, localizar todas as referências) e refatoração. É possível:
  • Crie, crie, edite e implante Aplicativos em Java, Scala e Python, sem alternar entre a Console e o ambiente de desenvolvimento local.
  • Comece a usar modelos do serviço Data Flow que estão incluídos no Code Editor.
  • Execute e teste seu código localmente com o Cloud Shell, antes de implantar no serviço Data Flow.
  • Defina parâmetros do Spark.
Estes são outros benefícios:
  • Integração do Git que permite clonar qualquer repositório baseado em Git, rastrear as alterações feitas em arquivos e confirmar, extrair e enviar código diretamente de dentro do Code Editor, permitindo que você contribua com código e reverter alterações de código com facilidade. Consulte o Guia do Desenvolvedor para obter informações sobre como usar o Git e GitHub.
  • Um estado persistente entre sessões salva automaticamente o progresso e persiste o estado em muitas sessões do usuário, de modo que o Code Editor abre automaticamente a última página editada na inicialização.

  • Acesso direto ao Apache Spark e a mais de 30 ferramentas, incluindo sbt e Scala pré-instaladas com o Cloud Shell.
  • Mais de uma dúzia de exemplos do serviço Data Flow cobrindo diferentes recursos agrupados como Modelos para ajudar você a começar.

Para obter mais informações sobre como usar o Code Editor para criar Aplicativos, consulte Creating an Application with the Code Editor.

Para obter mais informações sobre os recursos e a funcionalidade do Code Editor, consulte a documentação do Code Editor.

Pré-requisitos

  • O Code Editor usa as mesmas políticas de IAM que o Cloud Shell. Para obter mais informações, consulte Política de IAM Obrigatória do Cloud Shell.

  • Confirme se os idiomas e as ferramentas necessários estão instalados no Cloud Shell.
  • Se você estiver usando o Metastore do serviço Data Catalog, precisará configurar as políticas apropriadas.
As seguintes ferramentas e versões mínimas devem ser instaladas no Cloud Shell:
Ferramentas Necessárias e Versão Suportada
Ferramenta Versão Descrição
Scala 2.12.15 Usado para escrever código baseado em Scala no Code Editor.
sbt 1.7 Usado para criar aplicativos Scala de forma interativa.
Python 3.8 Interpretador de Python
Git 2.27 GIT bash para executar interativamente comandos GIT.
JDK 11 Usado para desenvolver, criar e testar Aplicativos Java do Data Flow.
Apache Spark 3.2.1 Uma Instância local do Apache Spark em execução no Cloud Shell. usada para testar o código.

Limitações

  • O serviço Data Flow só pode acessar recursos na região selecionada no menu de seleção Região da Console quando o Cloud Shell foi iniciado.
  • Somente Aplicativos de Fluxo de Dados baseados em Java, baseados em Python e baseados em Scala são suportados
  • O Code Editor não suporta Compilação e Depuração. Você deve fazer isso no Cloud Shell.
  • O plug-in só é suportado com o Apache Spark versão 3.2.1.
  • Todas as limitações do Cloud Shell se aplicam.

Configurando o Plug-in Spark do Serviço Data Flow

Siga estas etapas para configurar o Plug-in Spark do serviço Data Flow.

  1. Na linha de comando, navegue até o diretório HOME.
  2. Execute /opt/dataflow/df_artifacts/apache_spark_df_plugin_setup.sh .

    O script é um processo automatizado para configurar o Spark no diretório de usuário com outros artefatos necessários.