音声学習ノートの音声コレクション

Android が提供するオーディオ開発関連 API:
(1) オーディオ収集: MediaRecoder、AudioRecord
(2) オーディオ再生: SoundPool、MediaPlayer、AudioTrack
(3) オーディオ コーデック: MediaCodec

Andorid SDK はオーディオ収集用に MediaRecoder と AudioRecord という 2 つの API セットを提供しています。前者は上位層に近く、後者は下位層に近いものです。下位層に近いほうがより柔軟な制御を持ち、オリジナルのフレームごとの PCM オーディオ データを取得できます。

(1) AudioRecoed のワークフロー
(1) パラメータを設定し、内部オーディオ バッファを初期化します
(2) 取得を開始します
(3) AudioRecord バッファからオーディオ データを継続的に「読み取る」スレッドが必要です。注: このプロセスはタイムリーである必要がありますそうでない場合は、オーバーラン エラーが発生します。これは、アプリケーション層が時間内にオーディオ データを「取得」できず、内部オーディオ バッファがオーバーフローすることを意味します
(4) リソースの収集を停止し、解放します。

public AudioRecord(int audioSource, int sampleRateInHz, int channelConfig, int audioFormat,
intbufferSizeInBytes)
パラメーターの説明:
1> audioSorce パラメーターはオーディオ コレクションの入力ソースを参照し、オプションの定数形式は MediaRecorder.AudioSource クラスの DEFULT で定義されます。 (デフォルト)、VOICE_RECOGNITION (携帯電話のマイク入力用)、VOICE_COMMUNICATION (VoLP アプリケーション用)
2>sampleRateInHz サンプリング レート
注: 現在 44100HZ は、すべての携帯電話のサンプリング レートとの互換性を確保するためのものです
3>channelConfig チャネル番号設定、オプションの値定数の形式は AudioFormat クラスで定義されます。
一般的に使用されるものはCHANNEL_IN_MONO: シングル チャネルCHANNEL_IN_STEREO: デュアル チャネル
4>audioFormat: このパラメータは「データ ビット幅」を設定するために使用され、オプションの値もAudioFormat クラスの定数の形式で定義されます。 このうち、一般的に使用される 16 ビットと 8 ビット
注: 前者はすべての Android 携帯電話との互換性が保証されています
5>bufferSizeInBytes: AudioRecord 内のオーディオ バッファのサイズを設定します。また、バッファのサイズは「オーディオ」の 1 フレームより小さくすることはできません サイズの
計算式: int サイズ = サンプリング レート * ビット幅 * サンプリング時間 * チャンネル数
サンプリング時間は一般的に 2.5 ~ 120ms です。Android では、AudioRecord クラスがバッファを決定するためのクラスを提供します。 int geMinBUfferSize(int sampleRateInHz, int channelConfig, int audioFormat) //サンプリング レート、チャンネル数、データ ビット幅

package com.example.audiodemo;

import android.media.AudioFormat;
import android.media.AudioRecord;
import android.media.MediaRecorder;
import android.util.Log;

/**
 * 音频采集
 */
public class AudioCapturer {
    private static final String TAG = "AudioCapturer";
    private static final int DEFAULT_SOURCE = MediaRecorder.AudioSource.MIC;
    private static final int DEFAULT_SAMPLE_RATE = 44100;
    private static final int DEFAULT_CHANNEL_CONFIG = AudioFormat.CHANNEL_IN_MONO;
    private static final int DEFAULT_AUDIO_FORMAT = AudioFormat.ENCODING_PCM_16BIT;

    private AudioRecord mAudioRecord;
    private int mMinBufferSize = 0;

    private Thread mCaptureThread;
    private boolean mIsCaptureStarted = false;
    private volatile boolean mIsLoopExit = false;

    private OnAudioFrameCapturedListener mAudioFrameCapturedListener;

    public interface OnAudioFrameCapturedListener {
        public void onAudioFrameCaptured(byte[] audioData);
    }

    public void setAudioFrameCapturedListener(OnAudioFrameCapturedListener listener){
        mAudioFrameCapturedListener = listener;
    }

    public boolean startCapturer(){
        return startCapturer(DEFAULT_SOURCE,DEFAULT_SAMPLE_RATE,DEFAULT_CHANNEL_CONFIG,DEFAULT_AUDIO_FORMAT);
    }

    private boolean startCapturer(int source,int sampleRate,int channelConfig,int audioFormat){

        if (mIsCaptureStarted){
            Log.d(TAG, "音频采集已经开始");
            return false;
        }

        mMinBufferSize = AudioRecord.getMinBufferSize(sampleRate,channelConfig,audioFormat);
        if (mMinBufferSize == AudioRecord.ERROR_BAD_VALUE){
            Log.d(TAG, "无效参数");
            return false;
        }

        Log.d(TAG, "音频最小缓冲区为:" + mMinBufferSize + "bytes");
        mAudioRecord = new AudioRecord(source, sampleRate, channelConfig, audioFormat, mMinBufferSize);
        if (mAudioRecord.getState() == AudioRecord.STATE_UNINITIALIZED){
            Log.d(TAG, "初始化失败");
            return false;
        }

        mAudioRecord.startRecording();
        mIsLoopExit = false;

        mCaptureThread = new Thread(new CapturerRunnable());
        mCaptureThread.start();

        mIsCaptureStarted = true;

        return true;

    }

    public void stopCapturer(){
        if (!mIsCaptureStarted){
            return;
        }

        mIsLoopExit = true;
        try {
            /** 是给线程设置中断标志;  其作用是中断此线程 */
            mCaptureThread.interrupt();
            /** “等待该线程终止”,这里需要理解的就是该线程是指的主线程等待子线程的终止。也就是在子线程调用了join()方法后面的代码,只有等到子线程结束了才能执行。*/
            mCaptureThread.join(1000);
        }
        catch (InterruptedException e) {
            e.printStackTrace();
        }

        if (mAudioRecord.getRecordingState() == AudioRecord.RECORDSTATE_RECORDING) {
            mAudioRecord.stop();
        }

        mAudioRecord.release();

        mIsCaptureStarted = false;
        mAudioFrameCapturedListener = null;
    }

    private class CapturerRunnable implements Runnable{
        @Override
        public void run() {
            while (!mIsLoopExit){
                byte[] bytes = new byte[mMinBufferSize];
                /** audioData :写入的音频录制数据
                 *  offsetInBytes: audioData的起始偏移值,单位byte
                 *  sizeInBytes: 读取的最大字节数
                 *  读入缓冲区的总byte数,如果对象属性没有初始化,则返回ERROR_INVALID_OPERATION,
                 *  如果参数不能解析成有效的数据或索引,则返回ERROR_BAD_VALUE。
                 *  读取的总byte数不会超过sizeInBytes
                 */
                int ret = mAudioRecord.read(bytes,0,mMinBufferSize);
                if (ret == AudioRecord.ERROR_INVALID_OPERATION) {
                    Log.e(TAG , "Error ERROR_INVALID_OPERATION");
                } else if (ret == AudioRecord.ERROR_BAD_VALUE) {
                    Log.e(TAG , "Error ERROR_BAD_VALUE");
                }else {
                    if (mAudioFrameCapturedListener != null){
                        mAudioFrameCapturedListener.onAudioFrameCaptured(bytes);
                    }
                }
            }
        }
    }
}

参考文献: https://blog.51cto.com/ticktick/category15.html

権限を申請する際の注意事項:

  /**
     * 动态申请录音权限
     */
    private void requestPermission(){
        if (ContextCompat.checkSelfPermission(this, Manifest.permission.RECORD_AUDIO)
                != PackageManager.PERMISSION_GRANTED) {
            ActivityCompat.requestPermissions(this,
                    new String[]{Manifest.permission.RECORD_AUDIO}, 1001);
        }
    }

おすすめ

転載: blog.csdn.net/qq_42447739/article/details/127676310