PyTorch中音频专用损失函数集合。
[PDF]
</div>pip install auraloss
如果你想使用MelSTFTLoss()或FIRFilter(),你需要指定额外安装(librosa和scipy)。
pip install auraloss[all]
import torch import auraloss mrstft = auraloss.freq.MultiResolutionSTFTLoss() input = torch.rand(8,1,44100) target = torch.rand(8,1,44100) loss = mrstft(input, target)
新功能:使用梅尔频谱图进行感知加权。
bs = 8 chs = 1 seq_len = 131072 sample_rate = 44100 # 你想比较的一些音频 target = torch.rand(bs, chs, seq_len) pred = torch.rand(bs, chs, seq_len) # 定义损失函数 loss_fn = auraloss.freq.MultiResolutionSTFTLoss( fft_sizes=[1024, 2048, 8192], hop_sizes=[256, 512, 2048], win_lengths=[1024, 2048, 8192], scale="mel", n_bins=128, sample_rate=sample_rate, perceptual_weighting=True, ) # 计算 loss = loss_fn(pred, target)
如果你在你的工作中使用了这段代码,请考虑引用我们。
@inproceedings{steinmetz2020auraloss, title={auraloss: {A}udio focused loss functions in {PyTorch}}, author={Steinmetz, Christian J. and Reiss, Joshua D.}, booktitle={Digital Music Research Network One-day Workshop (DMRN+15)}, year={2020} }
我们将损失函数分为时域方法和频域方法。 此外,我们还包括感知变换。
<table> <tr> <th>损失函数</th> <th>接口</th> <th>参考文献</th> </tr> <tr> <td colspan="3" align="center"><b>时域</b></td> </tr> <tr> <td>误差信号比(ESR)</td> <td><code>auraloss.time.ESRLoss()</code></td> <td><a href=https://arxiv.org/abs/1911.08922>Wright & Välimäki, 2019</a></td> </tr> <tr> <td>直流误差(DC)</td> <td><code>auraloss.time.DCLoss()</code></td> <td><a href=https://arxiv.org/abs/1911.08922>Wright & Välimäki, 2019</a></td> </tr> <tr> <td>对数双曲余弦(Log-cosh)</td> <td><code>auraloss.time.LogCoshLoss()</code></td> <td><a href=https://openreview.net/forum?id=rkglvsC9Ym>Chen et al., 2019</a></td> </tr> <tr> <td>信噪比(SNR)</td> <td><code>auraloss.time.SNRLoss()</code></td> <td></td> </tr> <tr> <td>尺度不变信号失真比(SI-SDR)</td> <td><code>auraloss.time.SISDRLoss()</code></td> <td><a href=https://arxiv.org/abs/1811.02508>Le Roux et al., 2018</a></td> </tr> <tr> <td>尺度相关信号失真比(SD-SDR)</td> <td><code>auraloss.time.SDSDRLoss()</code></td> <td><a href=https://arxiv.org/abs/1811.02508>Le Roux et al., 2018</a></td> </tr> <tr> <td colspan="3" align="center"><b>频域</b></td> </tr> <tr> <td>聚合短时傅里叶变换</td> <td><code>auraloss.freq.STFTLoss()</code></td> <td><a href=https://arxiv.org/abs/1808.06719>Arik et al., 2018</a></td> </tr> <tr> <td>聚合梅尔尺度短时傅里叶变换</td> <td><code>auraloss.freq.MelSTFTLoss(sample_rate)</code></td> <td></td> </tr> <tr> <td>多分辨率短时傅里叶变换</td> <td><code>auraloss.freq.MultiResolutionSTFTLoss()</code></td> <td><a href=https://arxiv.org/abs/1910.11480>Yamamoto et al., 2019*</a></td> </tr> <tr> <td>随机分辨率短时傅里叶变换</td> <td><code>auraloss.freq.RandomResolutionSTFTLoss()</code></td> <td><a href=https://www.christiansteinmetz.com/s/DMRN15__auraloss__Audio_focused_loss_functions_in_PyTorch.pdf>Steinmetz & Reiss, 2020</a></td> </tr> <tr> <td>和差短时傅里叶变换损失</td> <td><code>auraloss.freq.SumAndDifferenceSTFTLoss()</code></td> <td><a href=https://arxiv.org/abs/2010.10291>Steinmetz et al., 2020</a></td> </tr> <tr> <td colspan="3" align="center"><b>感知变换</b></td> </tr> <tr> <td>和差信号变换</td> <td><code>auraloss.perceptual.SumAndDifference()</code></td> <td><a href=#></a></td> </tr> <tr> <td>FIR预加重滤波器</td> <td><code>auraloss.perceptual.FIRFilter()</code></td> <td><a href=https://arxiv.org/abs/1911.08922>Wright & Välimäki, 2019</a></td> </tr> </table>目前我们包括了一个使用一组损失函数来训练TCN以模拟模拟动态范围压缩器的示例。详细信息请参阅examples/compressor中的详细内容。我们提供了预训练模型、用于计算论文中指标的评估脚本,以及重新训练模型的脚本。
基于STFTLoss类,您可以做一些更高级的事情。例如,您可以像Engel等人,2020那样计算线性和对数尺度的STFT误差。在这种情况下,我们不包括谱收敛项。
stft_loss = auraloss.freq.STFTLoss( w_log_mag=1.0, w_lin_mag=1.0, w_sc=0.0, )
还有一个Mel尺度的STFT损失,它有一些特殊要求。这个损失函数要求您设置采样率并指定正确的设备。
sample_rate = 44100 melstft_loss = auraloss.freq.MelSTFTLoss(sample_rate, device="cuda")
您还可以轻松构建一个具有64个频段的多分辨率Mel尺度STFT损失。确保传递正确的设备,即您要比较的张量所在的设备。
loss_fn = auraloss.freq.MultiResolutionSTFTLoss( scale="mel", n_bins=64, sample_rate=sample_rate, device="cuda" )
如果您在立体声音频上计算损失,可能需要考虑和差(中侧)损失。下面我们展示了一个使用此损失函数的示例,结合感知权重和mel尺度以进一步提高感知相关性。
target = torch.rand(8, 2, 44100) pred = torch.rand(8, 2, 44100) loss_fn = auraloss.freq.SumAndDifferenceSTFTLoss( fft_sizes=[1024, 2048, 8192], hop_sizes=[256, 512, 2048], win_lengths=[1024, 2048, 8192], perceptual_weighting=True, sample_rate=44100, scale="mel", n_bins=128, ) loss = loss_fn(pred, target)
使用pytest在本地运行测试。
python -m pytest