全部版块 我的主页
论坛 数据科学与人工智能 人工智能
1184 3
2023-02-22
我用一维卷积对西储大学轴承故障数据集做诊断
看到知网上相关论文,选择的样本长度都是2048,也就是一条样本包含2048个数据点
举一个看的论文例子:
<基于卷积神经网络的轴承故障诊断算法研究 >(哈尔滨工业大学  张伟 硕士毕业论文):
原文2.6.1部分原话:
CWRU 轴承中心数据采集系统如图 2-7 所示。本试验的试验对象为图中的驱
动端轴承,被诊断的轴承型号为深沟球轴承 SKF6205,有故障的轴承由电火花加
工制作而成,系统的采样频率为 12kHz。被诊断的轴承一共有 3 种缺陷位置,分别
是滚动体损伤,外圈损伤与内圈损伤,损伤直径的大小分别为包括 0.007inch,
0.014inch 和 0.021inch,共计 9 种损伤状态。试验中,每次使用 2048 个数据点进行
诊断。
这个样本长度选择依据是啥
可不可以选择其他样本长度喂入神经网络

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2023-2-22 15:59:29
有没有哪位好心的大佬解释一下,我百度了很久也没有找到合理的解释
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2023-2-22 16:00:10
有的说样本长度要至少要大于一个周期的变化,但是这个一个周期有多少个数据点又是怎么确定的?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2023-2-22 16:00:28
顶一个,有人吗
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群