Usando o Code Editor
Saiba mais sobre o serviço Data Flow e o Oracle Cloud Infrastructure Code Editor.
- Crie, crie, edite e implante Aplicativos em Java, Scala e Python, sem alternar entre a Console e o ambiente de desenvolvimento local.
- Comece a usar modelos do serviço Data Flow que estão incluídos no Code Editor.
- Execute e teste seu código localmente com o Cloud Shell, antes de implantar no serviço Data Flow.
- Defina parâmetros do Spark.
- Integração do Git que permite clonar qualquer repositório baseado em Git, rastrear as alterações feitas em arquivos e confirmar, extrair e enviar código diretamente de dentro do Code Editor, permitindo que você contribua com código e reverter alterações de código com facilidade. Consulte o Guia do Desenvolvedor para obter informações sobre como usar o Git e GitHub.
-
Um estado persistente entre sessões salva automaticamente o progresso e persiste o estado em muitas sessões do usuário, de modo que o Code Editor abre automaticamente a última página editada na inicialização.
- Acesso direto ao Apache Spark e a mais de 30 ferramentas, incluindo sbt e Scala pré-instaladas com o Cloud Shell.
-
Mais de uma dúzia de exemplos do serviço Data Flow cobrindo diferentes recursos agrupados como Modelos para ajudar você a começar.
Para obter mais informações sobre os recursos e a funcionalidade do Code Editor, consulte a documentação do Code Editor.
Pré-requisitos
-
O Code Editor usa as mesmas políticas de IAM que o Cloud Shell. Para obter mais informações, consulte Política de IAM Obrigatória do Cloud Shell.
- Confirme se os idiomas e as ferramentas necessários estão instalados no Cloud Shell.
- Se você estiver usando o Metastore do serviço Data Catalog, precisará configurar as políticas apropriadas.
| Ferramenta | Versão | Descrição |
|---|---|---|
| Scala | 2.12.15 | Usado para escrever código baseado em Scala no Code Editor. |
| sbt | 1.7 | Usado para criar aplicativos Scala de forma interativa. |
| Python | 3.8 | Interpretador de Python |
| Git | 2.27 | GIT bash para executar interativamente comandos GIT. |
| JDK | 11 | Usado para desenvolver, criar e testar Aplicativos Java do Data Flow. |
| Apache Spark | 3.2.1 | Uma Instância local do Apache Spark em execução no Cloud Shell. usada para testar o código. |
Limitações
- O serviço Data Flow só pode acessar recursos na região selecionada no menu de seleção Região da Console quando o Cloud Shell foi iniciado.
- Somente Aplicativos de Fluxo de Dados baseados em Java, baseados em Python e baseados em Scala são suportados
- O Code Editor não suporta Compilação e Depuração. Você deve fazer isso no Cloud Shell.
- O plug-in só é suportado com o Apache Spark versão 3.2.1.
- Todas as limitações do Cloud Shell se aplicam.
Configurando o Plug-in Spark do Serviço Data Flow
Siga estas etapas para configurar o Plug-in Spark do serviço Data Flow.