脚本之家,脚本语言编程技术及教程分享平台!
分类导航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|shell|

服务器之家 - 脚本之家 - Python - python实现PyEMD经验模态分解残差量分析

python实现PyEMD经验模态分解残差量分析

2022-12-26 13:01Cyril_KI Python

这篇文章主要为大家介绍了PyEMD经验模态分解及变体残余量分析,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪

前言

PyEMD是经验模态分解 (EMD)及其变体的Python实现,EMD最流行的扩展之一是集成经验模态分解 (EEMD),它利用了噪声辅助执行的集成。

顾名思义,这个包中的方法获取数据(信号)并将其分解为一组组件。所有这些方法理论上都应该将信号分解为同一组分量,但实际上有很多细微差别和不同的方法来处理噪声。无论采用何种方法,获得的分量通常称为本征模态函数(IMF),以强调它们包含固有(自身)属性,即特定振荡(模态)。(以上来自官方文档)

 

两种实现形式

最近尝试实现CEEMDAN,CEEMADN也是EMD的一种变体。按照官方API,有以下两种形式的写法:

大部分博客采用的是第一种写法:

ceemdan = CEEMDAN()
ceemdan.ceemdan(load)
imfs, res = ceemdan.get_imfs_and_residue()
vis = Visualisation()
vis.plot_imfs(imfs, res)

这种写法得到的图为:

python实现PyEMD经验模态分解残差量分析

第二种写法,也是官方的写法:

ceemdan = CEEMDAN()(load)
imfs, res = ceemdan[:-1], ceemdan[-1]
vis = Visualisation()
vis.plot_imfs(imfs, res)

得到的图示为:

python实现PyEMD经验模态分解残差量分析

可以发现,两张图最大的区别在于Res。一般论文中给出的图示是第二种。

我们尝试输出第一种方法中的Res:

[ 0.00000000e+00 -2.84217094e-14 0.00000000e+00 ... -2.84217094e-14
0.00000000e+00 0.00000000e+00]

可以发现其量级特别小,还原时我们可以不加上这一部分。而方法二中的Res显然量级是最大的,还原时必须加上。

因此,方法一中的Res是我们一般人所理解的残余量,在真正进行建模时可以不考虑。

方法一中画图时如果我们不包含残余量,即:

vis.plot_imfs(imfs=imfs, residue=res, include_residue=False)

我们将得到:

python实现PyEMD经验模态分解残差量分析

 

区别

在github上经过交流后,得到如下结论:

方法一中的Res是真正意义上的残余量,或许叫残差更合适一点,也就是分解之后不能再分解的部分。在PyEMD的源码中被定义为:

S * scale_s - np.sum(self.C_IMF, axis=0)

因此,ceemdan.get_imfs_and_residue()实际上得到的是最终的IMF和重建误差,而不是残差。

残差的正确获取方式是ceemdan[-1]。

以上就是python实现PyEMD经验模态分解残差量分析的详细内容,更多关于PyEMD经验模态分解残差量的资料请关注服务器之家其它相关文章!

原文链接:https://blog.csdn.net/Cyril_KI/article/details/124370191

延伸 · 阅读

精彩推荐