Erstellen von Skripts zur Analyse parametrischer Daten
- Aktualisiert2025-05-12
- 2 Minute(n) Lesezeit
Sie können das Standard-Jupyter-Notebook DataSpace Analysis Ihren Anforderungen an die parametrische Datenanalyse gemäß modifizieren.
Eingeführt im Dezember 2024
Hinweis Weitere Informationen zum Durchführen einer Datenbereichsanalyse mit verschiedenen APIs finden Sie in der Python-Bibliothek ni_data_space_analyzer im Dokument How_to_use_ni_data_space_analyzer in GitHub.
- Wählen Sie .
- Klicken Sie das Notebook mit der rechten Maustaste an und benennen Sie es um.
-
Um benutzerdefinierte Analysen hinzuzufügen, aktualisieren Sie die Metadaten der Notebook-Parameter . Fügen Sie beispielsweise custom_analysis_scalar und custom_analysis_vector hinzu.
{ "papermill": { "parameters": { "trace_data": "", "workspace_id": "", "analysis_options": [] } }, "systemlink": { "outputs": [ { "display_name": "Custom Analysis Scalar", "id": "custom_analysis_scalar", "type": "scalar" }, { "display_name": "Custom Analysis Vector", "id": "custom_analysis_vector", "type": "vector" } ], "parameters": [ { "display_name": "Trace Data", "id": "trace_data", "type": "string" }, { "display_name": "Analysis Options", "id": "analysis_options", "type": "string[]" } ] }, "tags": ["parameters"] }
-
Aktualisieren Sie die Liste der vom Notebook unterstützten Analysen und geben Sie die Ausgabeparameter an.
supported_analysis = [ {"id": "custom_analysis_scalar", "type": "scalar"}, {"id": "custom_analysis_vector", "type": "vector"} ] supported_analysis_options = list(map(lambda x: x["id"], supported_analysis))
-
Fügen Sie Funktionen zur Berechnung der benutzerdefinierten Analyse hinzu und fügen Sie die Ergebnisse zum ursprünglichen Daten-Frame hinzu.
def compute_custom_analysis_scalar(dataframe): analysis_result = perform_custom_analysis_scalar(dataframe) dataframe["custom_analysis_scalar"] = float(analysis_result) def def compute_custom_analysis_vector(dataframe): analysis_result = perform_custom_analysis_vector(dataframe) dataframe["custom_analysis_vector"] = list(analysis_result)
-
Führen Sie eine Analyse einzelner Kurven durch.
def perform_analysis(data_frame: pd.DataFrame) -> pd.DataFrame: data_space_analyzer = DataSpaceAnalyzer(dataframe=data_frame) for option in analysis_options: elif option == "custom_analysis_scalar": compute_custom_analysis_scalar(data_frame) elif option == "custom_analysis_vector": compute_custom_analysis_vector(data_frame) return data_space_analyzer.generate_analysis_output(analysis_options=analysis_options,supported_analysis=supported_analysis
-
Konsolidieren Sie die Ergebnisse und speichern Sie sie als Artefakt.
data_space_analyzer = DataSpaceAnalyzer(pd.DataFrame()) final_result = [] traces = data_space_analyzer.load_dataset(trace_data) for trace in traces: trace_name = trace["name"] trace_values = trace["data"] analysis_results = perform_analysis(trace_values) final_result.append({"plot_label": trace_name, "data": analysis_results}) output_artifact_id = data_space_analyzer.save_analysis(workspace_id, final_result)
-
Hängen Sie (Glue) das Ausgabeartefakt mit Hilfe der Scrapbook-Bibliothek an das Ausführungsergebnis an.
sb.glue("result", output_artifact_id)
- Speichern Sie das Notebook.
- Veröffentlichen Sie das Notebook in SystemLink Enterprise unter DataSpace Analysis (Datenbereichsanalyse).
Verwandte Inhalte
- Data Space Analysis Notebook (GitHub)
- Analysieren parametrischer Daten in einem Datenbereich
Erhalten Sie Einblicke in parametrische Daten in einem Datenbereich.
- Veröffentlichen eines Jupyter-Notebooks in SystemLink Enterprise
Veröffentlichen Sie ein Jupyter-Notebook (*.ipynb) auf SystemLink Enterprise, um das Notebook für Datenanalysen und Visualisierungen zu verwenden.