Creare un'esecuzione esperimento in un notebook con codice di esempio (anteprima)

È possibile creare esecuzioni per un esperimento all'interno di un notebook modificando il codice di esempio con i dettagli dell'esperimento esistenti.

  1. Passare al notebook in cui si desidera creare un'esecuzione per un esperimento.
  2. Fare clic sulla scheda Esperimenti.
  3. Fare clic su Codice di esempio.
  4. Nel blocco di codice di esempio, sostituire experiment name="Customer Churn Prediction" con experiment name="<your_experiment_name>". È inoltre possibile copiare questo codice e modificarlo con il nome dell'esperimento:
    import mlflow 
    experiment_name = "experiment name" #Replace this with your own experiment name 
    mlflow.set_experiment(experiment_name) 
    
    mlflow.autolog() 
    
    with mlflow.start_run(): 
        # training code goes here 
        # OPTIONAL - Log additional items after training 
        mlflow.log_metric("custom_metric", 99.9) 
  5. Autologs registra automaticamente un set predefinito di metriche, a seconda del modello selezionato. Per specificare manualmente le metriche, è possibile modificare questo codice per richiamare mlflow.log_metric(“<metric_name>”,<metric_variable>):
    import mlflow 
    import numpy as np 
    from sklearn.tree import DecisionTreeRegressor 
    from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score 
    
    experiment_name = "Customer Churn Prediction" 
    mlflow.set_experiment(experiment_name) 
    
    mlflow.autolog() 
    
    with mlflow.start_run(): 
        # training code goes here 
        model = DecisionTreeRegressor(random_state=42, max_depth=5) 
        model.fit(X_train, y_train) 
    
        preds = model.predict(X_test) 
    
        mse = mean_squared_error(y_test, preds) 
        rmse = float(np.sqrt(mse)) 
    
        mlflow.log_metric("test_rmse", rmse) 
        mlflow.log_metric("test_mae", float(mean_absolute_error(y_test, preds))) 
        mlflow.log_metric("test_r2", float(r2_score(y_test, preds))) 
        # OPTIONAL - Log additional items after training 
        mlflow.log_metric("custom_metric", 99.9) 
  6. Eseguire il blocco di codice dal blocco note. L'esecuzione è stata registrata per l'esperimento specificato.

    Nota

    Più esecuzioni per un esperimento vengono registrate automaticamente con nomi diversi. Per gli scenari di sweep dei parametri, AI Data Platform Workbench acquisisce automaticamente tutte le esecuzioni e le metriche specificate con nomi diversi rispetto all'esperimento specificato.