你常用的听歌识曲是怎么识别音乐的?揭秘背后的算法原理|亮马桥小纪严选
小纪有话说:
有没有过这样的时刻:在商场、咖啡厅里听到一首歌很上头,急切想知道歌名?或是听到一段熟悉的旋律,但就是想不起歌曲的名字?
这时候听歌识曲功能就发挥作用了,在环境中听几秒钟,歌手和歌名便精准地出现在了屏幕上。
提到听歌识曲,就不得不提到最为主流的软件之一——Shazam。它是识曲技术的先行者,自1999年创立以来,Shazam一直在不断完善技术,并在2018年被苹果以4亿美元收购,成为了iPhone自带的识曲工具。如今,Shazam凭借庞大的用户群和全球海量的音乐数据库,保持着识曲技术领域的领先地位。
数据显示,Dance Monkey是被Shazam搜索次数最多的歌曲,达4100万次;被搜索最多的艺人是Drake,搜索次数达3.5亿次。Shazam的识曲界面如下,无论是前奏、主歌还是副歌,几秒之内就能够给出准确的歌名和歌手信息。
其他主流的听歌软件如网易云音乐、Spotify等也逐渐有了听歌识曲功能。那么,听歌识曲软件是怎么在如此短的时间内,从嘈杂的环境中准确识别出歌名的?今天我们就来揭秘音乐识别的工作原理。
本文经授权转载自公众号「DataCafe」
声音采样:音频数字化
音乐识别的第一步就是“听”声音。
但机器是怎么“听”到歌的呢?我们首先回顾一下声音的本质:
声音本质上是一种振动,在空气或水等介质中传播。
被人耳接收后,人耳会把这种振动通过耳膜等组织传导为大脑能识别的信号。
机器听歌的原理也类似,它把声音的振动转化为电信号,再把电信号转变成计算机可处理的数字信号。
这个把连续的声音波形转化为离散数字信号的过程就叫作采样。采样率决定了信号的捕捉效果。采样率越高,点越密集,原始声音被保留得越完整。下图从左到右展示了采样率由低到高的声音还原效果。
根据Nyquist-Shannon定理,为了捕捉到人类可听的频率(20Hz-20,000Hz),采样率需要是其两倍,因此常用44,100Hz的采样率。
现在我们通过采样获得了声音信号,但这只是「听歌识曲」的第一步。我们还需要提取这些声音中的特征,转换为能被识别的模式。
声音特征提取:从时域到频域
当听歌识曲软件听到一段声音时,最先捕捉到的是音频的时域信号。时域信号是最直接的声音表现形式(也就是我们通常在录音软件中看到的波形图),表示声音振幅如何随时间而变化。
但是,时域信号主要呈现的是声音随时间的变化,很难直观反映出声音中包含的频率成分。因此,为了更有效地分析声音的特征,我们需要将其从时域转换到频域。
傅里叶变换(Fourier Transform)正是这样一种工具,可以把时域信号分解为不同频率成分,帮助我们清晰地看到声音的频率和振幅信息。
这个方法可以追溯到19世纪初,法国数学家傅里叶(Jean-Baptiste Joseph Fourier)发现,任何复杂的时域信号都可以分解为一系列简单正弦波的叠加。这一分解过程就被称为傅里叶变换,叠加的这些正弦波则被称为傅里叶级数。
通过傅里叶变换,声音被进一步分解为一系列简单的正弦波,每个正弦波都有特定的频率、振幅和相位。
下图展示了傅里叶级数如何将一个1Hz的方波在时域中分解为多个正弦波的频域组合,呈现出其各个频率成分和振幅。
在音乐分析中,通常使用的是离散傅里叶变换(DFT),因为音乐信号是离散采样的数字信号。DFT能将这些离散数据转换为频域信息,更适合计算机处理。
然而,由于DFT的算法复杂度,计算量耗时非常大。
为了优化这一过程,快速傅立叶变换(FFT)作为DFT的一种改进算法应运而生。FFT是一种分而治之算法,以递归方式将DFT划分为许多较小的DFT,大大加快了变换速度。正因为FFT的高效性,它也被广泛应用于数字信号处理、图像处理、音频分析等领域。
通过傅里叶变换,音频信号就从「时域」转换到了「频域」,以显示音频中每一个时间点包含的频率及其振幅。频谱图能够帮助我们进一步可视化这些信息。
频域信息的可视化:频谱图
频谱图是一种特殊的频域图,它呈现了音频信号的时间、频率和强度三维信息。
频谱图就像是歌曲的「心电图」,记录了歌曲每一秒的「心跳」——也就是频率和振幅,很直观地向我们展示了信号中哪些频率在什么时候出现,它们的强弱关系如何。歌曲特征提取的本质就是在这心电图中找到最明显的跳动。
▲ 图 / researchgate
上图就是一个典型的频谱图:X轴表示时间,Y轴表示频率,颜色深浅表示振幅的大小。
我们已经看到,频谱图包含了音频中独特的频率信息,那么识曲软件是如何提取这些信息并进行比对的?
音频指纹:提取频率特征
识曲的关键就在于音频指纹。就像人的指纹是独一无二的,每首歌也有自己独特的指纹,音频指纹就是音频信号的数字DNA。
提取指纹的过程大致如下:音频被拆分成若干小块,进而提取音频中的显著频率峰值,每个片段的峰值组合就形成了整首歌的音频指纹。
下图展示了一个语音文件在各区段被检测到的频谱图峰值示例。这些峰值点代表了音频中最显著的频率成分,也就是音频指纹的核心构成。
▲ 图 / researchgate
通常情况下,不同的频率范围会被分别处理,这样能够确保对低音、中音和高音的均衡分析,避免混淆或漏掉某些音乐元素。
每首歌都会被转换为一个独特的音频指纹,所以就算是同一首歌的不同版本也会因为频率、振幅和时间上的差异而生成不同的指纹,以确保后续最精准的匹配。
在数据库中寻找匹配:哈希表与高效匹配
现在我们有了这首歌的「指纹」,接下来就是要在已有的歌曲数据库中找到与它匹配的指纹,来识别出具体的歌曲。
听歌识曲技术将每段音频指纹转换成哈希值(一种编码),这样可以加速在数据库中查找匹配(因为比较哈希值比起去比较整段音频要快得多)。软件会将用户录音的指纹与数据库中的指纹哈希值比对,找到指纹匹配的歌曲。
下面的4幅图展示了从音频信号提取特征到生成哈希值的完整流程:
▲ 图 / Wang,A.L.-C. (2003). An Industrial-Strength Audio Search Algorithm,Shazam
A. 展示了音频信号的频谱图,显示频率随时间的变化B. 从中提取峰值,形成星座图(星座图就是把音频中最显著的频率点形成的图,就像把最闪的星星连成星座一样)C. 把锚点与目标区域内其他点配对,记录频率和时间差来生成组合哈希D. 生成哈希值,用于后续的音频匹配与识别
最后,识曲算法会考虑时间差,并比对音频片段和数据库中歌曲的时间偏移,确保这些指纹的时间序列匹配,这样可以确保录制歌曲中的任意片段也能准确识别。
让我们总结整个过程,理解Shazam等识曲app是如何在几秒内完成识别的:
Step1: 采样获取录制音频样本(只需要其中的一个小片段)Step2: 通过快速傅里叶变换,音频从时域被转换成频域信息Step3: 频谱图提取关键峰值作为歌曲指纹Step4: 数据库匹配:通过哈希值在数据库中找到指纹匹配的歌曲Step5: 返回结果:匹配成功后,将歌曲名称和信息返回给用户。
其他广泛应用
如今,音乐识别的应用场景已经非常丰富,除用来识别歌曲,还可以用于版权监控保护,检测音乐中的采样和相似度,甚至可以用于找出某些流派的起源和灵感来源。
这种特征提取和匹配技术也为个性化音乐推荐提供了基础。推荐系统通过深度学习分析音乐的情感、风格判断歌曲的情绪(如欢快、悲伤、激动)、根据音乐的旋律、节奏、情感等特征来挖掘用户的喜好,不仅提高了推荐的准确性,而且能为用户发现更多与其品味相符的音乐。
这块技术也正在从纯音频识别拓展到多模态识别,就是音频、视频、歌词、封面图等多模态信息综合起来(比如说视频中的视觉元素与音频一起识别),提高识别的准确性。
参考资料:
Shazam Wang, A. (2003). An Industrial Strength Audio Search Algorithm.
温馨提示:虽然我们每天都有推送,但最近有读者表示因平台推送规则调整,有时候看不到我们的文章~
*文章观点仅供参考,不代表本机构立场 听歌识曲功能真是太实用了,尤其在那种场合突然听到喜欢的歌却不知道名字的时候。Shazam的技术确实厉害,能迅速从海量音乐中识别出来,不过我也好奇,这种技术有没有可能出错呢?
页:
[1]