1、简介
我们获取到的音频数据,可能是需要存储的。但是不能只存原始的数据,需要一定的格式来存储。比如图片的存储格式有JPEG、PNG、GIF等。视频有mp4、avi、RMVB等。音频的格式有mp3、wav、WMA等。这些文件都是可以在播放器中直接播放的,但是音频录制的时候采样率、声道数等等这些必要的参数是需要让播放器知道的,不然播放器就不能正常的播放音频文件。所以在存储的时候我们会为数据加上指定的“头”,这里面包括了音频的采样率、声道等参数信息。下面我们就学习wav格式。
2、wav格式的文件头
通过参考这个网站:http://soundfile.sapp.org/doc/WaveFormat
image.png
文件头包括三个部分
- 第一部分通过“ChunkID”来表示这是一个 “RIFF”格式的文件,通过“Format”填入“WAVE”来标识这是一个 wav 文件。而“ChunkSize”则记录了整个 wav 文件的字节数。
- 第二部分属于“fmt”信息块,主要记录了本 wav 音频文件的详细音频参数信息,例如:通道数、采样率、位宽等等。
- 第三部分属于“data”信息块,由“Subchunk2Size”这个字段来记录后面存储的二进制原始音频数据的长度。
第一部分和第二部分义工占36个字节、第三部分Subchunk2ID、和Subchunk2Size各占4字节,这44字节是文件头固定的长度。后面的字节就是真正的数据部分。所以当我们拿到了原始PCM数据后,加入前44字节文件头,保存为wav格式。这样就可以在其他播放器上播放了。
3、工具代码
/**
* 原始PCM数据转WAV
*/
public class PcmToWavUtil {
/**
* 采样率
*/
private int mSampleRate;
/**
* 声道数
*/
private int mChannel;
/**
* @param sampleRate sample rate、采样率
* @param channel channel、声道
*/
PcmToWavUtil(int sampleRate, int channel) {
this.mSampleRate = sampleRate;
this.mChannel = channel;
}
/**
* pcm文件转wav文件
*/
public ByteArrayOutputStream pcmToWav(ByteArrayOutputStream pcmBaos) {
//音频数据的长度
long totalAudioLen;
//音频数据的长度和文件头中36字节的总和
long totalDataLen;
long longSampleRate = mSampleRate;
int channels = mChannel == AudioFormat.CHANNEL_IN_MONO ? 1 : 2;
long byteRate = 16 * mSampleRate * channels / 8;
ByteArrayOutputStream wavBaos = null;
try {
totalAudioLen = pcmBaos.size();
//由于文件头中,后8个字节也是属于数据部分,所以这里只加上前面的36字节
totalDataLen = totalAudioLen + 36;
wavBaos = new ByteArrayOutputStream();
//添加头
writeWaveFileHeader(wavBaos, totalAudioLen, totalDataLen,
longSampleRate, channels, byteRate);
wavBaos.write(pcmBaos.toByteArray());
wavBaos.flush();
return wavBaos;
} catch (IOException e) {
try {
pcmBaos.close();
} catch (IOException e1) {
e1.printStackTrace();
}
e.printStackTrace();
} finally {
if (pcmBaos != null) {
try {
pcmBaos.close();
} catch (IOException e) {
e.printStackTrace();
}
}
if (wavBaos != null) {
try {
wavBaos.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
return null;
}
/**
* 加入wav文件头
*/
private void writeWaveFileHeader(ByteArrayOutputStream wavBaos, long totalAudioLen,
long totalDataLen, long longSampleRate, int channels, long byteRate)
throws IOException {
byte[] header = new byte[44];
// RIFF/WAVE header
header[0] = 'R';
header[1] = 'I';
header[2] = 'F';
header[3] = 'F';
header[4] = (byte) (totalDataLen & 0xff);
header[5] = (byte) ((totalDataLen >> 8) & 0xff);
header[6] = (byte) ((totalDataLen >> 16) & 0xff);
header[7] = (byte) ((totalDataLen >> 24) & 0xff);
//Format 'WAVE'
header[8] = 'W';
header[9] = 'A';
header[10] = 'V';
header[11] = 'E';
//Subchunk1ID 'fmt'
header[12] = 'f';
header[13] = 'm';
header[14] = 't';
header[15] = ' ';
// 4 bytes: size of 'fmt ' chunk
header[16] = 16;
header[17] = 0;
header[18] = 0;
header[19] = 0;
// format = 1
header[20] = 1;
header[21] = 0;
//通道数
header[22] = (byte) channels;
header[23] = 0;
//采样率
header[24] = (byte) (longSampleRate & 0xff);
header[25] = (byte) ((longSampleRate >> 8) & 0xff);
header[26] = (byte) ((longSampleRate >> 16) & 0xff);
header[27] = (byte) ((longSampleRate >> 24) & 0xff);
//音频数据攒送率
header[28] = (byte) (byteRate & 0xff);
header[29] = (byte) ((byteRate >> 8) & 0xff);
header[30] = (byte) ((byteRate >> 16) & 0xff);
header[31] = (byte) ((byteRate >> 24) & 0xff);
// block align
header[32] = (byte) (channels * 16 / 8);
header[33] = 0;
// 每个样本的数据位数
header[34] = 16;
header[35] = 0;
//data
header[36] = 'd';
header[37] = 'a';
header[38] = 't';
header[39] = 'a';
header[40] = (byte) (totalAudioLen & 0xff);
header[41] = (byte) ((totalAudioLen >> 8) & 0xff);
header[42] = (byte) ((totalAudioLen >> 16) & 0xff);
header[43] = (byte) ((totalAudioLen >> 24) & 0xff);
wavBaos.write(header);
}
}
上面的writeWaveFileHeader()方法就可以很明确的看到前44字节的创建过程。
如果我们需要读取wav文件进行播放,就可以拿出前44字节,然后读出需要的参数使用AudioTrack进行播放。