【读书笔记】iOS-音频设备访问

音频的输入是通过麦克风实现,音频的输出是通过扬声气实现的。在iOS系统中无法直接操控麦克风和扬声器,苹果提供了丰富的音频API。

一,音频API介绍

在iOS和Mac OS X上开发音频应用,主要有两个框架可以使用,AVFoundation是基于Objective-C的高层次框架,被设计成向那此以一般的基本使用方式来使用音频的开发者提供API。而Core Audio是基于C的低层次多个框架的集合,Core Audio可以实现对于音频更加全面的控制,可以实现混合多种声音,编解码音频数据,访问声道元数据等,Core Audio还提供一些音频处理和转化的工具。

 

二,AVFoundation

在AVFoundation框架中AVAudioPlayer类可以实现一般音频播放,用于播放超过5s的声音,只能播放本地的声音,不能播放网络媒体文件。

 

 

 

 

参考资料:《iOS传感器应用开发最佳实践》

 

猜你喜欢

转载自www.cnblogs.com/yang-guang-girl/p/9044345.html