Flutter Web项目如何录制wav格式音频

前言

一个小需求,需要在Flutter Web项目中录音,需要通过原生Native(即js或html5)来进行处理。
而且我们的需求必须是wav格式的,经过网上查询发现使用html5自带的MediaRecorder在chrome上录制出来的格式是webm(opus),即

audio/webm;codecs=opus

而且只支持这种格式,因为chrome解码(decode)有多种格式,但是编码(encode)只有这一种。

那么我们怎么录制wav格式?

代码

在网上搜索很久,找到一个可用的,记录一下,源码如下:

(function (window) {
    
    
    //兼容
    window.URL = window.URL || window.webkitURL;
    navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedia;

    var NXRecorder = function (stream, config) {
    
    
        config = config || {
    
    };
        config.sampleBits = config.sampleBits || 16;      //采样数位 8, 16
        config.sampleRate = config.sampleRate || 16000;   //采样率(44100,16000)

        var context = new (window.webkitAudioContext || window.AudioContext)();
        var audioInput = context.createMediaStreamSource(stream);
        var createScript = context.createScriptProcessor || context.createJavaScriptNode;
        var recorder = createScript.apply(context, [4096, 1, 1]);
        console.log(context.sampleRate + "");

        var audioData = {
    
    
            size: 0          //录音文件长度
            , buffer: []     //录音缓存
            , inputSampleRate: context.sampleRate    //输入采样率
            , inputSampleBits: 16       //输入采样数位 8, 16
            , outputSampleRate: config.sampleRate    //输出采样率
            , oututSampleBits: config.sampleBits       //输出采样数位 8, 16
            , input: function (data) {
    
    
                this.buffer.push(new Float32Array(data));
                this.size += data.length;
            }
            , compress: function () {
    
     //合并压缩
                //合并
                var data = new Float32Array(this.size);
                var offset = 0;
                for (var i = 0; i < this.buffer.length; i++) {
    
    
                    data.set(this.buffer[i], offset);
                    offset += this.buffer[i].length;
                }
                //采样压缩
                var compression = Math.round(this.inputSampleRate / this.outputSampleRate);
                console.log('compression:' + compression + "," + this.inputSampleRate + "," + this.outputSampleRate);
                var length = data.length / compression;
                var result = new Float32Array(length);
                var index = 0, j = 0;
                while (index < length) {
    
    
                    result[index] = data[j];
                    j += compression;
                    index++;
                }
                return result;
            }
            , encodeWAV: function () {
    
    
                var sampleRate = Math.min(this.inputSampleRate, this.outputSampleRate);
                var sampleBits = Math.min(this.inputSampleBits, this.oututSampleBits);
                var bytes = this.compress();
                var dataLength = bytes.length * (sampleBits / 8);
                var buffer = new ArrayBuffer(44 + dataLength); // 头部数据为44字节
                var data = new DataView(buffer);

                var channelCount = 1;//单声道
                var offset = 0;

                var writeString = function (str) {
    
    
                    for (var i = 0; i < str.length; i++) {
    
    
                        data.setUint8(offset + i, str.charCodeAt(i));
                    }
                }

                // 增加头部44字节数据
                // 资源交换文件标识符
                writeString('RIFF'); offset += 4;
                // 下个地址开始到文件尾总字节数,即文件大小-8
                data.setUint32(offset, 36 + dataLength, true); offset += 4;
                // WAV文件标志
                writeString('WAVE'); offset += 4;
                // 波形格式标志
                writeString('fmt '); offset += 4;
                // 过滤字节,一般为 0x10 = 16
                data.setUint32(offset, 16, true); offset += 4;
                // 格式类别 (PCM形式采样数据)
                data.setUint16(offset, 1, true); offset += 2;
                // 通道数
                data.setUint16(offset, channelCount, true); offset += 2;
                // 采样率,每秒样本数,表示每个通道的播放速度
                data.setUint32(offset, sampleRate, true); offset += 4;
                // 波形数据传输率 (每秒平均字节数) 单声道×每秒数据位数×每样本数据位/8
                data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4;
                // 快数据调整数 采样一次占用字节数 单声道×每样本的数据位数/8
                data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2;
                // 每样本数据位数
                data.setUint16(offset, sampleBits, true); offset += 2;
                // 数据标识符
                writeString('data'); offset += 4;
                // 采样数据总数,即数据总大小-44
                data.setUint32(offset, dataLength, true); offset += 4;

                // 写入采样数据
                if (sampleBits === 8) {
    
    
                    for (var i = 0; i < bytes.length; i++, offset++) {
    
    
                        var s = Math.max(-1, Math.min(1, bytes[i]));
                        var val = s < 0 ? s * 0x8000 : s * 0x7FFF;
                        val = parseInt(255 / (65535 / (val + 32768)));
                        data.setInt8(offset, val, true);
                    }
                } else {
    
    
                    for (var i = 0; i < bytes.length; i++, offset += 2) {
    
    
                        var s = Math.max(-1, Math.min(1, bytes[i]));
                        data.setInt16(offset, s < 0 ? s * 0x8000 : s * 0x7FFF, true);
                    }
                }

                return new Blob([data], {
    
     type: 'audio/wav' });
            }
        };

        //开始录音
        this.start = function () {
    
    
            audioInput.connect(recorder);
            recorder.connect(context.destination);
        }

        //停止
        this.stop = function () {
    
    
            recorder.disconnect();
        }

        //获取音频文件
        this.getBlob = function () {
    
    
            this.stop();
            return audioData.encodeWAV();
        }

        //回放
        this.play = function (audio) {
    
    
            audio.src = window.URL.createObjectURL(this.getBlob());
        }


        //音频采集
        recorder.onaudioprocess = function (e) {
    
    
            audioData.input(e.inputBuffer.getChannelData(0));
            //record(e.inputBuffer.getChannelData(0));
        }

    };
    //抛出异常
    NXRecorder.throwError = function (message) {
    
    
        alert(message);
        throw new function () {
    
     this.toString = function () {
    
     return message; } }
    }
    //是否支持录音
    NXRecorder.canRecording = (navigator.getUserMedia != null);
    //获取录音机
    NXRecorder.get = function (callback, config) {
    
    
        if (callback) {
    
    
            if (navigator.getUserMedia) {
    
    
                navigator.getUserMedia(
                    {
    
     audio: true } //只启用音频
                    , function (stream) {
    
    
                        var rec = new NXRecorder(stream, config);
                        callback(rec);
                    }
                    , function (error) {
    
    
                        switch (error.code || error.name) {
    
    
                            case 'PERMISSION_DENIED':
                            case 'PermissionDeniedError':
                                NXRecorder.throwError('用户拒绝提供信息。');
                                break;
                            case 'NOT_SUPPORTED_ERROR':
                            case 'NotSupportedError':
                                NXRecorder.throwError('浏览器不支持硬件设备。');
                                break;
                            case 'MANDATORY_UNSATISFIED_ERROR':
                            case 'MandatoryUnsatisfiedError':
                                NXRecorder.throwError('无法发现指定的硬件设备。');
                                break;
                            default:
                                NXRecorder.throwError('无法打开麦克风。异常信息:' + (error.code || error.name));
                                break;
                        }
                    });
            } else {
    
    
                NXRecorder.throwErr('当前浏览器不支持录音功能。'); return;
            }
        }
    }

    window.NXRecorder = NXRecorder;

})(window);

这里简单说名一下,我们要求采样率是16000,但是输入采样率(context.sampleRate)是44100,而在处理数据进行采样压缩的时候,我们先计算了一个int的压缩率:

var compression = Math.round(this.inputSampleRate / this.outputSampleRate);

在原代码中,是使用parseInt而不是Math.round,但是使用parseInt有一个问题,比如上面的两个采样率比更接近3,但是用parseInt后直接舍掉就是2,这样得到的音频就会声音变形严重。而用Math.round四舍五入后会更接近原来的声音。

使用

使用的时候也很简单:

var recorder;
var startRecorder = function () {
    
    
  NXRecorder.get(function (rec) {
    
    
      recorder = rec;
      recorder.start();
  });
  window.parent.recordStart();
  console.log("录音中...");
}

var stopRecorder = function () {
    
    
  recorder.stop();
  console.log("录音结束");
  window.parent.recorderStop(recorder.getBlob());
}

这里因为我们要与Flutter Web交互,所以使用window.parent.xxxx();回调,那么在Flutter中的到的数据(Blob)实际上是一个数组类型(可以通过blob.getBytes((long) 1,(int) blob.length())转成java中的byte[]),然后再处理即可(播放、存储本地或上传等等)

问题

无法录音

如果想录音,网站必须是https的,因为Chrome 47以后,getUserMediaAPI只能允许来自“安全可信”的客户端的视频音频请求,如HTTPS和本地的Localhost,而这个api是我们录音的关键,所以可能本地测试没问题,但是如果线上网站是http的,上线后发现无法执行。

无法播放

录音后的数据我们一般会上传到服务器上,这时候要注意文件服务器也需要支持https,因为想录音我们的网站必须是https的,而如果上传后的文件url是http协议,就会无法播放,因为https不能访问http

关注公众号:BennuCTech,获取更多干货!

猜你喜欢

转载自blog.csdn.net/chzphoenix/article/details/121749919