Modifiez le notebook Jupyter par défaut, Data Space Analysis, pour répondre à vos besoins d’analyse de données paramétriques.

Introduction : décembre 2024

Remarque Pour obtenir des informations supplémentaires sur la manière d'effectuer une analyse d'espace de données à l'aide de différentes API, reportez-vous à la bibliothèque Python ni_data_space_analyzer du document How_to_use_ni_data_space_analyzer’ dans GitHub.
Avant de commencer, téléchargez le notebook Data Space Analysis, Data_Space_Default_Analysis.ipynb à partir de GitHub.
  1. Accédez à Analyse » Scripts.
  2. Cliquez avec le bouton droit sur le notebook et renommez-le.
  3. Pour inclure les analyses personnalisées, mettez à jour les métadonnées des paramètres du notebook. Par exemple, ajoutez custom_analysis_scalar et custom_analysis_vector.
    {
      "papermill": {
        "parameters": {
          "trace_data": "",
          "workspace_id": "",
          "analysis_options": []
        }
      },
      "systemlink": {
        "outputs": [
          {
            "display_name": "Custom Analysis Scalar",
            "id": "custom_analysis_scalar",
            "type": "scalar"
          },
          {
            "display_name": "Custom Analysis Vector",
            "id": "custom_analysis_vector",
            "type": "vector"
          }
        ],
        "parameters": [
          {
            "display_name": "Trace Data",
            "id": "trace_data",
            "type": "string"
          },
          {
            "display_name": "Analysis Options",
            "id": "analysis_options",
            "type": "string[]"
          }
        ]
      },
      "tags": ["parameters"]
    }
  4. Mettez à jour la liste des analyses prises en charge par le notebook et spécifiez leur sortie.
    supported_analysis = [
        {"id": "custom_analysis_scalar", "type": "scalar"},
        {"id": "custom_analysis_vector", "type": "vector"}
    ]
    supported_analysis_options = list(map(lambda x: x["id"], supported_analysis))
    
  5. Ajoutez des fonctions qui calculent l'analyse personnalisée et ajoutez les résultats à la trame de données d'origine.
    def compute_custom_analysis_scalar(dataframe):
        analysis_result = perform_custom_analysis_scalar(dataframe)
        dataframe["custom_analysis_scalar"] = float(analysis_result)
    
    def def compute_custom_analysis_vector(dataframe):
        analysis_result = perform_custom_analysis_vector(dataframe)
        dataframe["custom_analysis_vector"] = list(analysis_result)
  6. Effectuez une analyse des traces individuelles.
    def perform_analysis(data_frame: pd.DataFrame) -> pd.DataFrame:
        data_space_analyzer = DataSpaceAnalyzer(dataframe=data_frame)
        for option in analysis_options:
            elif option == "custom_analysis_scalar":
                compute_custom_analysis_scalar(data_frame)
            elif option == "custom_analysis_vector":
                compute_custom_analysis_vector(data_frame)
        return data_space_analyzer.generate_analysis_output(analysis_options=analysis_options,supported_analysis=supported_analysis
  7. Consolidez les résultats et enregistrez-les en tant qu'artefact.
    data_space_analyzer = DataSpaceAnalyzer(pd.DataFrame()) 
      final_result = []
      traces = data_space_analyzer.load_dataset(trace_data) 
      for trace in traces: 
        trace_name = trace["name"] 
        trace_values = trace["data"] 
        analysis_results = perform_analysis(trace_values) 
        final_result.append({"plot_label": trace_name, "data": analysis_results}) 
      output_artifact_id = data_space_analyzer.save_analysis(workspace_id, final_result)
  8. En utilisant la bibliothèque scrapbook, collez l'artefact obtenu dans le résultat de l'exécution.
    sb.glue("result", output_artifact_id)
    
  9. Enregistrez le notebook.
  10. Publiez le notebook sur SystemLink Enterprise dans l'interface Data Space Analysis.
Une fois votre script personnalisé créé, utilisez-le pour analyser des données paramétriques dans un espace de données.