core-audio专题提供core-audio的最新资讯内容,帮你更好的了解core-audio。
是否可以像苹果在电话通话中那样在AirPods中消除来自麦克风(RemoteIO单元)的音频样本中的背景噪声?
我有一个AVAudioSession,它始终在录制,并且偶尔播放音频。我想将其与当前正在播放的音频(Apple Music,S
尝试启动音频会话时出现以下错误 <pre><code>2020-08-24 15:48:35.590348-0300 MyApp[728:187819] [aid] AudioIssueDetectorNo
我正在尝试将AVAudioSourceNode连接到调音台节点以输出到扬声器。我是iOS和音频编程的新手,因此对于这个
连接节点时出现错误 <pre><code>let sourceNode = AVAudioSinkNode { (test1, frameCount, audioBufferList) -&gt; OSStatus in
我正在研究ble应用程序。我正在使用<code>CABTMIDICentralViewController</code>连接到Mac。现在连接成功了,我想
我正在为 iOS12.4x 开发基于 AUSampler 的应用程序(我使用的是 High Sierra,因此无法为 iOS13+ 开发,我使用的
我一直在试验<a href="https://developer.apple.com/documentation/avfoundation/avaudiosourcenode" rel="nofollow noreferrer">AVAudioSou
我试图通过活动监视器->打开文件和端口来跟踪打开文件,但是没有运气。 我正在尝试获取有关如何描
我从MusicTrackSetDestMIDIEndpoint收到错误-10852(kAudioToolboxErr_InvalidPlayerState),但实际上并不清楚错误的实际
我有一个记录为48000采样率的wave文件。我需要在配置了44100采样率的BLE设备中播放录制的音频文件。当BLE
我有兴趣编写一个捕获系统音频输出的脚本,比方说要在Mac上启动,而不考虑其输出方式(扬声器,耳
我想编写一个适用于iOS的Alarm应用程序,该应用程序可以让用户从iTunes音乐库中选择一首歌曲,然后播放
我是Obj-C和CoreAudio的新手,所以我想知道是否有人可以提供有关使用CoreAudio访问Mac的输出音频流的指导?
要使音频单元自动化,我将事件发送到渲染线程,在该线程中,它们使用<strong> AudioUnitScheduleParameters </st
我一直在使用Xamarin.Mac中的macOS CoreAudio API。我需要的许多方法都没有绑定。在此<a href="https://forums.xamarin.
因此,我首先要说我没有使用pygame的经验。我之所以使用它,是因为kivy的音频模块不支持debian。我通过
问题是,AVAudioRecorder是否仍在后台执行诸如音量调节之类的任务?还是麦克风中有可以关闭的滤波器?
我正在基于Apple的示例实现HAL音频插件。 在调试示例时,我看到未按预期调用StartIO和StopIO。 我指的是从
所以我要带音频内容的CMSampleBufferRef缓冲区。 AudioStreamBasicDescription如下 <pre><code> { mSampleRa