在本章中,我们将学习使用AI和Python进行语音识别。
言语是成人人际沟通的最基本手段。 语音处理的基本目标是提供人与机器之间的交互。
语音处理系统主要有三项任务 -
本章重点讲述语音识别,理解人类说话的过程。 请记住,在麦克风的帮助下捕捉语音信号,然后系统才能理解它。
语音识别或自动语音识别(ASR)是AI机器人等AI项目的关注焦点。 没有ASR,就不可能想象一个认知机器人与人进行交互。 但是,构建语音识别器并不容易。
开发语音识别系统的困难
开发高质量的语音识别系统确实是一个难题。 语音识别技术的困难可以广泛地表征为如下所讨论的许多维度 -
说话模式 - 轻松开发ASR还取决于说话模式,即语音是处于孤立词模式还是连接词模式,还是处于连续语音模式。 请注意,连续说话很难辨认。
口语风格 - 阅读说话可以采用正式风格,也可以采用自发风格和对话风格。 后者更难以识别。
尽管存在这些困难,研究人员在语音的各个方面做了很多工作,例如理解语音信号,说话人以及识别口音。
所以,需要按照以下步骤构建语音识别器 -
这是构建语音识别系统的第一步,因为它可以帮助您理解音频信号的结构。 处理音频信号可遵循的一些常见步骤如下所示 -
记录
当必须从文件中读取音频信号时,首先使用麦克风录制。
采样
用麦克风录音时,信号以数字形式存储。 但为了解决这个问题,机器需要使用离散数字形式。 因此,我们应该以某个频率进行采样,并将信号转换为离散数字形式。 选择高频采样意味着当人类听到信号时,他们会感觉它是一个连续的音频信号。
示例
以下示例显示了使用Python存储在文件中的逐步分析音频信号的方法。 这个音频信号的频率是44,100HZ。
下面导入必要的软件包 -
import numpy as np import matplotlib.pyplot as plt from scipy.io import wavfile
现在,读取存储的音频文件。 它会返回两个值:采样频率和音频信号。 提供存储音频文件的路径,如下所示 -
frequency_sampling, audio_signal = wavfile.read("/Users/admin/audio_file.wav")
使用显示的命令显示音频信号的采样频率,信号的数据类型及其持续时间等参数 -
print('\nSignal shape:', audio_signal.shape) print('Signal Datatype:', audio_signal.dtype) print('Signal duration:', round(audio_signal.shape[0] / float(frequency_sampling), 2), 'seconds')
这一步涉及如下所示对信号进行标准化 -
audio_signal = audio_signal / np.power(2, 15)
在这一步中,从这个信号中提取出前100个值进行可视化。 为此目的使用以下命令 -
audio_signal = audio_signal [:100] time_axis = 1000 * np.arange(0, len(signal), 1) / float(frequency_sampling)
现在,使用下面给出的命令可视化信号 -
plt.plot(time_axis, signal, color='blue') plt.xlabel('Time (milliseconds)') plt.ylabel('Amplitude') plt.title('Input audio signal') plt.show()
下面输出图形是上述音频信号提取的数据,如图所示 -
Signal shape: (132300,) Signal Datatype: int16 Signal duration: 3.0 seconds
表征音频信号涉及将时域信号转换为频域,并通过以下方式理解其频率分量。 这是一个重要的步骤,因为它提供了关于信号的大量信息。 可以使用像傅立叶变换这样的数学工具来执行此转换。
示例
以下示例将逐步说明如何使用存储在文件中的Python来表征信号。 请注意,这里使用傅里叶变换数学工具将其转换为频域。
导入必要的软件包,如下所示 -
import numpy as np import matplotlib.pyplot as plt from scipy.io import wavfile
现在,读取存储的音频文件。 它会返回两个值:采样频率和音频信号。 提供存储音频文件的路径,如命令所示 -
frequency_sampling, audio_signal = wavfile.read("/Users/admin/sample.wav")
在这一步中,将使用下面给出的命令显示音频信号的采样频率,信号的数据类型和持续时间等参数 -
print('\nSignal shape:', audio_signal.shape) print('Signal Datatype:', audio_signal.dtype) print('Signal duration:', round(audio_signal.shape[0] / float(frequency_sampling), 2), 'seconds')
在这一步中,我们需要对信号进行标准化,如下面的命令所示 -
audio_signal = audio_signal / np.power(2, 15)
这一步涉及提取信号的长度和半长。使用以下命令 -
length_signal = len(audio_signal) half_length = np.ceil((length_signal + 1) / 2.0).astype(np.int)
现在,需要应用数学工具来转换到频域。 这里使用傅里叶变换。
signal_frequency = np.fft.fft(audio_signal)
现在,进行频域信号的归一化并将其平方 -
signal_frequency = abs(signal_frequency[0:half_length]) / length_signal signal_frequency **= 2
接下来,提取频率变换信号的长度和一半长度 -
len_fts = len(signal_frequency)
请注意,傅里叶变换信号必须针对奇偶情况进行调整。
if length_signal % 2: signal_frequency[1:len_fts] *= 2 else: signal_frequency[1:len_fts-1] *= 2
现在,以分贝(dB)为单位提取功率 -
signal_power = 10 * np.log10(signal_frequency)
调整X轴的以kHz为单位的频率 -
x_axis = np.arange(0, len_half, 1) * (frequency_sampling / length_signal) / 1000.0
现在,将信号的特征可视化如下 -
plt.figure() plt.plot(x_axis, signal_power, color='black') plt.xlabel('Frequency (kHz)') plt.ylabel('Signal power (dB)') plt.show()
可以观察上面代码的输出图形,如下图所示 -
到目前为止你所看到的两个步骤对于了解信号很重要。 现在,如果要使用某些预定义参数生成音频信号,此步骤将很有用。 请注意,此步骤会将音频信号保存在输出文件中。
示例
在下面的例子中,我们将使用Python生成一个单调信号,它将被存储在一个文件中。需要采取以下步骤 -
导入必要的软件包 -
import numpy as np import matplotlib.pyplot as plt from scipy.io.wavfile import write
指定输出保存的文件 -
output_file = 'audio_signal_generated.wav'
现在,指定选择的参数,如图所示 -
duration = 4 # in seconds frequency_sampling = 44100 # in Hz frequency_tone = 784 min_val = -4 * np.pi max_val = 4 * np.pi
在这一步中,我们可以生成音频信号,如下代码所示 -
t = np.linspace(min_val, max_val, duration * frequency_sampling) audio_signal = np.sin(2 * np.pi * tone_freq * t)
现在,将音频文件保存在输出文件中 -
write(output_file, frequency_sampling, signal_scaled)
如图所示,提取图形的前100个值 -
audio_signal = audio_signal[:100] time_axis = 1000 * np.arange(0, len(signal), 1) / float(sampling_freq)
现在,将生成的音频信号可视化如下 -
plt.plot(time_axis, signal, color='blue') plt.xlabel('Time in milliseconds') plt.ylabel('Amplitude') plt.title('Generated audio signal') plt.show()
可以观察这里给出的图形 -
这是构建语音识别器的最重要步骤,因为在将语音信号转换为频域后,我们必须将其转换为可用的特征向量形式。 可以为此使用不同的特征提取技术,如MFCC,PLP,PLP-RASTA等。
示例
在以下示例中,我们将使用MFCC技术逐步使用Python从信号中提取特征。
导入必要的软件包,如下所示 -
import numpy as np import matplotlib.pyplot as plt from scipy.io import wavfile from python_speech_features import mfcc, logfbank
现在,读取存储的音频文件。 它会返回两个值 - 采样频率和音频信号。 提供存储音频文件的路径。
frequency_sampling, audio_signal = wavfile.read("/Users/admin/audio_file.wav")
请注意,在此首先抽取15000个样本进行分析。
audio_signal = audio_signal[:15000]
使用MFCC技术并执行以下命令来提取MFCC特征 -
features_mfcc = mfcc(audio_signal, frequency_sampling)
现在,打印MFCC参数,如下所示 -
print('\nMFCC:\nNumber of windows =', features_mfcc.shape[0]) print('Length of each feature =', features_mfcc.shape[1])
使用下面给出的命令绘制并可视化MFCC特征 -
features_mfcc = features_mfcc.T plt.matshow(features_mfcc) plt.title('MFCC')
在这一步中,我们使用如下滤器组特征,提取过滤器组特征 -
filterbank_features = logfbank(audio_signal, frequency_sampling)
现在,打印过滤器组参数。
print('\nFilter bank:\nNumber of windows =', filterbank_features.shape[0]) print('Length of each feature =', filterbank_features.shape[1])
绘制并可视化过滤器组特征。
filterbank_features = filterbank_features.T plt.matshow(filterbank_features) plt.title('Filter bank') plt.show()
根据上述步骤,您可以观察到以下输出:图1为MFCC,图2为过滤器组。
语音识别意味着当人们说话时,机器就会理解它。 这里使用Python中的Google Speech API来实现它。 需要为此安装以下软件包 -
pip install SpeechRecognition
进行安装。pip install google-api-python-client
进行安装。实例
观察下面的例子来理解口语的识别。如下所示导入必要的软件包 -
import speech_recognition as sr
创建一个对象,如下所示 -
recording = sr.Recognizer()
现在,Microphone()模块将把语音作为输入 -
with sr.Microphone() as source: recording.adjust_for_ambient_noise(source) print("Please Say something:") audio = recording.listen(source)
现在谷歌API会识别语音并提供输出。
try: print("You said: \n" + recording.recognize_google(audio)) except Exception as e: print(e)
可以看到下面的输出 -
Please Say Something: You said:
例如,如果您说zyiz.net
,那么系统会如下正确识别它 -
zyiz.net