Criar uma Execução de Experiência em um Notebook com Código de Amostra (Visualização)

Você pode criar execuções para um experimento em um notebook modificando o código de amostra com detalhes do experimento existente.

  1. Navegue até o notebook no qual deseja criar uma execução para um experimento.
  2. Clique na guia Experimentos.
  3. Clique em Código de amostra.
  4. No bloco de código de amostra, substitua experiment name="Customer Churn Prediction" por experiment name="<your_experiment_name>". Você também pode copiar este código e modificá-lo com o nome do experimento:
    import mlflow 
    experiment_name = "experiment name" #Replace this with your own experiment name 
    mlflow.set_experiment(experiment_name) 
    
    mlflow.autolog() 
    
    with mlflow.start_run(): 
        # training code goes here 
        # OPTIONAL - Log additional items after training 
        mlflow.log_metric("custom_metric", 99.9) 
  5. Os registros automáticos registram automaticamente um conjunto padrão de métricas, dependendo do modelo selecionado. Para especificar manualmente suas próprias métricas, você pode modificar esse código para chamar mlflow.log_metric(“<metric_name>”,<metric_variable>):
    import mlflow 
    import numpy as np 
    from sklearn.tree import DecisionTreeRegressor 
    from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score 
    
    experiment_name = "Customer Churn Prediction" 
    mlflow.set_experiment(experiment_name) 
    
    mlflow.autolog() 
    
    with mlflow.start_run(): 
        # training code goes here 
        model = DecisionTreeRegressor(random_state=42, max_depth=5) 
        model.fit(X_train, y_train) 
    
        preds = model.predict(X_test) 
    
        mse = mean_squared_error(y_test, preds) 
        rmse = float(np.sqrt(mse)) 
    
        mlflow.log_metric("test_rmse", rmse) 
        mlflow.log_metric("test_mae", float(mean_absolute_error(y_test, preds))) 
        mlflow.log_metric("test_r2", float(r2_score(y_test, preds))) 
        # OPTIONAL - Log additional items after training 
        mlflow.log_metric("custom_metric", 99.9) 
  6. Execute o bloco de código do seu notebook. A execução agora está registrada para o experimento especificado.

    Observação:

    Várias execuções para um experimento são registradas automaticamente com nomes diferentes. Para cenários de varredura de parâmetros, o AI Data Platform Workbench captura automaticamente todas as execuções e métricas especificadas com nomes diferentes para o experimento especificado.