Création d'un script personnalisé pour l'analyse de données paramétriques
- Mise à jour2025-12-02
- Temps de lecture : 2 minute(s)
Modifiez le notebook Jupyter par défaut, Data Space Analysis, pour répondre à vos besoins d’analyse de données paramétriques.
Introduction : décembre 2024
Remarque Pour obtenir des informations supplémentaires sur la manière d'effectuer une analyse d'espace de données à l'aide de différentes API, reportez-vous à la bibliothèque Python ni_data_space_analyzer du document How_to_use_ni_data_space_analyzer’ dans GitHub.
- Accédez à .
- Cliquez avec le bouton droit sur le notebook et renommez-le.
-
Pour inclure les analyses personnalisées, mettez à jour les métadonnées des paramètres du notebook. Par exemple, ajoutez custom_analysis_scalar et custom_analysis_vector.
{ "papermill": { "parameters": { "trace_data": "", "workspace_id": "", "analysis_options": [] } }, "systemlink": { "outputs": [ { "display_name": "Custom Analysis Scalar", "id": "custom_analysis_scalar", "type": "scalar" }, { "display_name": "Custom Analysis Vector", "id": "custom_analysis_vector", "type": "vector" } ], "parameters": [ { "display_name": "Trace Data", "id": "trace_data", "type": "string" }, { "display_name": "Analysis Options", "id": "analysis_options", "type": "string[]" } ] }, "tags": ["parameters"] } -
Mettez à jour la liste des analyses prises en charge par le notebook et spécifiez leur sortie.
supported_analysis = [ {"id": "custom_analysis_scalar", "type": "scalar"}, {"id": "custom_analysis_vector", "type": "vector"} ] supported_analysis_options = list(map(lambda x: x["id"], supported_analysis)) -
Ajoutez des fonctions qui calculent l'analyse personnalisée et ajoutez les résultats à la trame de données d'origine.
def compute_custom_analysis_scalar(dataframe): analysis_result = perform_custom_analysis_scalar(dataframe) dataframe["custom_analysis_scalar"] = float(analysis_result) def def compute_custom_analysis_vector(dataframe): analysis_result = perform_custom_analysis_vector(dataframe) dataframe["custom_analysis_vector"] = list(analysis_result) -
Effectuez une analyse des traces individuelles.
def perform_analysis(data_frame: pd.DataFrame) -> pd.DataFrame: data_space_analyzer = DataSpaceAnalyzer(dataframe=data_frame) for option in analysis_options: elif option == "custom_analysis_scalar": compute_custom_analysis_scalar(data_frame) elif option == "custom_analysis_vector": compute_custom_analysis_vector(data_frame) return data_space_analyzer.generate_analysis_output(analysis_options=analysis_options,supported_analysis=supported_analysis -
Consolidez les résultats et enregistrez-les en tant qu'artefact.
data_space_analyzer = DataSpaceAnalyzer(pd.DataFrame()) final_result = [] traces = data_space_analyzer.load_dataset(trace_data) for trace in traces: trace_name = trace["name"] trace_values = trace["data"] analysis_results = perform_analysis(trace_values) final_result.append({"plot_label": trace_name, "data": analysis_results}) output_artifact_id = data_space_analyzer.save_analysis(workspace_id, final_result) -
En utilisant la bibliothèque scrapbook, collez l'artefact obtenu dans le résultat de l'exécution.
sb.glue("result", output_artifact_id) - Enregistrez le notebook.
- Publiez le notebook sur SystemLink Enterprise dans l'interface Data Space Analysis.
Contenu associé
- Notebook Data Space Analysis (GitHub)
- Analyse de données paramétriques dans un espace de données
Obtenez des informations sur vos données paramétriques dans un espace de données.
- Publication d’un notebook Jupyter
Publiez un notebook Jupyter (.ipynb) sur SystemLink Enterprise pour pouvoir l'utiliser à des fins d'analyse de données et de visualisation.