Skip to main content

音频分类 - Jupyter 笔记本

audio_classification_UrbanSound8K.ipynb 示例脚本展示了如何将 ClearML 集成到使用 PyTorch、TensorBoard 和 TorchVision 的 Jupyter Notebook 中,以在 UrbanSound8K 数据集上训练神经网络进行音频分类。该示例在训练和测试过程中调用 TensorBoard 方法来报告标量、音频调试样本和频谱图可视化。频谱图可视化通过调用 Matplotlib 方法绘制。该示例还展示了如何将参数连接到任务并记录它们。当脚本运行时,它会在 Audio Example 项目中创建一个名为 audio classification UrbanSound8K 的实验。

标量

准确率、学习率和训练损失标量会自动记录,同时资源利用率图表(标题为:monitor: machine)也会显示在SCALARS中。

image

调试示例

音频样本和频谱图会自动记录并显示在DEBUG SAMPLES中。

音频样本

image

通过双击缩略图,您可以播放音频样本。

频谱图可视化

image

通过双击缩略图,您可以在图像查看器中查看频谱图。

image

超参数

ClearML 自动记录 TensorFlow 定义。通过调用 Task.connect 方法将参数字典连接到任务来记录它。

configuration_dict = {
'number_of_epochs': 10,
'batch_size': 4,
'dropout': 0.25,
'base_lr': 0.001
}
configuration_dict = task.connect(configuration_dict) # enabling configuration override by clearml

参数字典出现在配置 > 超参数 > 常规中。

image

TensorFlow 定义出现在 TF_DEFINE 小节中。

image

控制台

打印到控制台的训练进度文本,以及所有其他控制台输出,显示在控制台中。

image