ios – AudioConverter#FillComplexBuffer返回-50并且不转换任何内容

我强烈关注 this Xamarin sample(基于 this Apple sample)将LinearPCM文件转换为AAC文件.

该示例工作得很好,但在我的项目中实现,FillComplexBuffer方法返回错误-50并且InputData事件未被触发一次,因此没有任何转换.

只有在设备上进行测试时才会出现该错误.在模拟器上进行测试时,一切都很顺利,最后我得到了一个很好的编码AAC文件.

我今天尝试了很多东西,我发现我的代码和示例代码之间没有任何区别.你知道这可能来自哪里吗?

我不知道这是否与Xamarin有关,因为Xamarin样本效果很好,所以看起来并不是这样.

这是我的代码的相关部分:

protected void Encode(string path)
{
  // In class setup. File at TempWavFilePath has DecodedFormat as format.
  // 
  // DecodedFormat = AudioStreamBasicDescription.CreateLinearPCM();
  // AudioStreamBasicDescription encodedFormat = new AudioStreamBasicDescription()
  // {
  //   Format = AudioFormatType.MPEG4AAC,//   SampleRate = DecodedFormat.SampleRate,//   ChannelsPerFrame = DecodedFormat.ChannelsPerFrame,// };
  // AudioStreamBasicDescription.GetFormatInfo (ref encodedFormat);
  // EncodedFormat = encodedFormat;


  // Setup converter
  AudioStreamBasicDescription inputFormat = DecodedFormat;
  AudioStreamBasicDescription outputFormat = EncodedFormat;

  AudioConverterError converterCreateError;
  AudioConverter converter = AudioConverter.Create(inputFormat,outputFormat,out converterCreateError);
  if (converterCreateError != AudioConverterError.None)
  {
    Console.WriteLine("Converter creation error: " + converterCreateError);
  }
  converter.EncodeBitRate = 192000; // AAC 192kbps

  // get the actual formats back from the Audio Converter
  inputFormat = converter.CurrentInputStreamDescription;
  outputFormat = converter.CurrentOutputStreamDescription;


  /*** INPUT ***/

  AudioFile inputFile = AudioFile.OpenRead(NSUrl.FromFilename(TempWavFilePath));

  // init buffer
  const int inputBufferBytesSize = 32768;
  IntPtr inputBufferPtr = Marshal.AllocHGlobal(inputBufferBytesSize);

  // calc number of packets per read
  int inputSizePerPacket = inputFormat.BytesPerPacket;
  int inputBufferPacketSize = inputBufferBytesSize / inputSizePerPacket;
  AudioStreamPacketDescription[] inputPacketDescriptions = null;

  // init position
  long inputFilePosition = 0;

  // define input delegate
  converter.InputData += delegate(ref int numberDataPackets,AudioBuffers data,ref AudioStreamPacketDescription[] dataPacketDescription)
  {
    // how much to read
    if (numberDataPackets > inputBufferPacketSize)
    {
      numberDataPackets = inputBufferPacketSize;
    }

    // read from the file
    int outNumBytes;
    AudioFileError readError = inputFile.ReadPackets(false,out outNumBytes,inputPacketDescriptions,inputFilePosition,ref numberDataPackets,inputBufferPtr);
    if (readError != 0)
    {
      Console.WriteLine("Read error: " + readError);
    }

    // advance input file packet position
    inputFilePosition += numberDataPackets;

    // put the data pointer into the buffer list
    data.SetData(0,inputBufferPtr,outNumBytes);

    // add packet descriptions if required
    if (dataPacketDescription != null)
    {
      if (inputPacketDescriptions != null)
      {
        dataPacketDescription = inputPacketDescriptions;
      }
      else
      {
        dataPacketDescription = null;
      }
    }

    return AudioConverterError.None;
  };


  /*** OUTPUT ***/

  // create the destination file 
  var outputFile = AudioFile.Create (NSUrl.FromFilename(path),AudioFileType.M4A,AudioFileFlags.EraseFlags);

  // init buffer
  const int outputBufferBytesSize = 32768;
  IntPtr outputBufferPtr = Marshal.AllocHGlobal(outputBufferBytesSize);

  AudioBuffers buffers = new AudioBuffers(1);

  // calc number of packet per write
  int outputSizePerPacket = outputFormat.BytesPerPacket;
  AudioStreamPacketDescription[] outputPacketDescriptions = null;

  if (outputSizePerPacket == 0) {
    // if the destination format is VBR,we need to get max size per packet from the converter
    outputSizePerPacket = (int)converter.MaximumOutputPacketSize;

    // allocate memory for the PacketDescription structures describing the layout of each packet
    outputPacketDescriptions = new AudioStreamPacketDescription [outputBufferBytesSize / outputSizePerPacket];
  }
  int outputBufferPacketSize = outputBufferBytesSize / outputSizePerPacket;

  // init position
  long outputFilePosition = 0;

  long totalOutputFrames = 0; // used for debugging

  // write magic cookie if necessary
  if (converter.CompressionMagicCookie != null && converter.CompressionMagicCookie.Length != 0)
  {
    outputFile.MagicCookie = converter.CompressionMagicCookie;
  }

  // loop to convert data
  Console.WriteLine ("Converting...");
  while (true)
  {
    // create buffer
    buffers[0] = new AudioBuffer()
    {
      NumberChannels = outputFormat.ChannelsPerFrame,DataByteSize = outputBufferBytesSize,Data = outputBufferPtr
    };

    int writtenPackets = outputBufferPacketSize;

    // LET'S CONVERT (it's about time...)
    AudioConverterError converterFillError = converter.FillComplexBuffer(ref writtenPackets,buffers,outputPacketDescriptions);
    if (converterFillError != AudioConverterError.None)
    {
      Console.WriteLine("FillComplexBuffer error: " + converterFillError);
    }

    if (writtenPackets == 0) // EOF
    {
      break;
    }

    // write to output file
    int inNumBytes = buffers[0].DataByteSize;

    AudioFileError writeError = outputFile.WritePackets(false,inNumBytes,outputPacketDescriptions,outputFilePosition,ref writtenPackets,outputBufferPtr);
    if (writeError != 0)
    {
      Console.WriteLine("WritePackets error: {0}",writeError);
    }

    // advance output file packet position
    outputFilePosition += writtenPackets;

    if (FlowFormat.FramesPerPacket != 0) { 
      // the format has constant frames per packet
      totalOutputFrames += (writtenPackets * FlowFormat.FramesPerPacket);
    } else {
      // variable frames per packet require doing this for each packet (adding up the number of sample frames of data in each packet)
      for (var i = 0; i < writtenPackets; ++i)
      {
        totalOutputFrames += outputPacketDescriptions[i].VariableFramesInPacket;
      }
    }
  }

  // write out any of the leading and trailing frames for compressed formats only
  if (outputFormat.BitsPerChannel == 0)
  {
    Console.WriteLine("Total number of output frames counted: {0}",totalOutputFrames); 
    WritePacketTableInfo(converter,outputFile);
  }

  // write the cookie again - sometimes codecs will update cookies at the end of a conversion
  if (converter.CompressionMagicCookie != null && converter.CompressionMagicCookie.Length != 0)
  {
    outputFile.MagicCookie = converter.CompressionMagicCookie;
  }

  // Clean everything
  Marshal.FreeHGlobal(inputBufferPtr);
  Marshal.FreeHGlobal(outputBufferPtr);
  converter.Dispose();
  outputFile.Dispose();

  // Remove temp file
  File.Delete(TempWavFilePath);
}

我已经看过this SO question了,但是没有详细的C / Obj-C相关答案似乎不符合我的问题.

谢谢 !

解决方法

我终于找到了解决方案!

我只需要在转换文件之前声明AVAudioSession类别.

AVAudioSession.SharedInstance().SetCategory(AVAudioSessionCategory.AudioProcessing);
AVAudioSession.SharedInstance().SetActive(true);

由于我还使用了一个AudioQueue到RenderOffline,我实际上必须将类别设置为AVAudioSessionCategory.PlayAndRecord,因此离线渲染和音频转换都可以工作.

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


当我们远离最新的 iOS 16 更新版本时,我们听到了困扰 Apple 最新软件的错误和性能问题。
欧版/美版 特别说一下,美版选错了 可能会永久丧失4G,不过只有5%的概率会遇到选择运营商界面且部分必须连接到iTunes才可以激活
一般在接外包的时候, 通常第三方需要安装你的app进行测试(这时候你的app肯定是还没传到app store之前)。
前言为了让更多的人永远记住12月13日,各大厂都在这一天将应用变灰了。那么接下来我们看一下Flutter是如何实现的。Flutter中实现整个App变为灰色在Flutter中实现整个App变为灰色是非常简单的,只需要在最外层的控件上包裹ColorFiltered,用法如下:ColorFiltered(颜色过滤器)看名字就知道是增加颜色滤镜效果的,ColorFiltered( colorFilter:ColorFilter.mode(Colors.grey, BlendMode.
flutter升级/版本切换
(1)在C++11标准时,open函数的文件路径可以传char指针也可以传string指针,而在C++98标准,open函数的文件路径只能传char指针;(2)open函数的第二个参数是打开文件的模式,从函数定义可以看出,如果调用open函数时省略mode模式参数,则默认按照可读可写(ios_base:in | ios_base::out)的方式打开;(3)打开文件时的mode的模式是从内存的角度来定义的,比如:in表示可读,就是从文件读数据往内存读写;out表示可写,就是把内存数据写到文件中;
文章目录方法一:分别将图片和文字置灰UIImage转成灰度图UIColor转成灰度颜色方法二:给App整体添加灰色滤镜参考App页面置灰,本质是将彩色图像转换为灰度图像,本文提供两种方法实现,一种是App整体置灰,一种是单个页面置灰,可结合具体的业务场景使用。方法一:分别将图片和文字置灰一般情况下,App页面的颜色深度是24bit,也就是RGB各8bit;如果算上Alpha通道的话就是32bit,RGBA(或者ARGB)各8bit。灰度图像的颜色深度是8bit,这8bit表示的颜色不是彩色,而是256
领导让调研下黑(灰)白化实现方案,自己调研了两天,根据网上资料,做下记录只是学习过程中的记录,还是写作者牛逼
让学前端不再害怕英语单词(二),通过本文,可以对css,js和es6的单词进行了在逻辑上和联想上的记忆,让初学者更快的上手前端代码
用Python送你一颗跳动的爱心
在uni-app项目中实现人脸识别,既使用uni-app中的live-pusher开启摄像头,创建直播推流。通过快照截取和压缩图片,以base64格式发往后端。
商户APP调用微信提供的SDK调用微信支付模块,商户APP会跳转到微信中完成支付,支付完后跳回到商户APP内,最后展示支付结果。CSDN前端领域优质创作者,资深前端开发工程师,专注前端开发,在CSDN总结工作中遇到的问题或者问题解决方法以及对新技术的分享,欢迎咨询交流,共同学习。),验证通过打开选择支付方式弹窗页面,选择微信支付或者支付宝支付;4.可取消支付,放弃支付会返回会员页面,页面提示支付取消;2.判断支付方式,如果是1,则是微信支付方式。1.判断是否在微信内支付,需要在微信外支付。
Mac命令行修改ipa并重新签名打包
首先在 iOS 设备中打开开发者模式。位于:设置 - 隐私&安全 - 开发者模式(需重启)
一 现象导入MBProgressHUD显示信息时,出现如下异常现象Undefined symbols for architecture x86_64: "_OBJC_CLASS_$_MBProgressHUD", referenced from: objc-class-ref in ViewController.old: symbol(s) not found for architecture x86_64clang: error: linker command failed wit
Profiles >> 加号添加 >> Distribution >> "App Store" >> 选择 2.1 创建的App ID >> 选择绑定 2.3 的发布证书(.cer)>> 输入描述文件名称 >> Generate 生成描述文件 >> Download。Certificates >> 加号添加 >> "App Store and Ad Hoc" >> “Choose File...” >> 选择上一步生成的证书请求文件 >> Continue >> Download。
今天有需求,要实现的功能大致如下:在安卓和ios端实现分享功能可以分享链接,图片,文字,视频,文件,等欢迎大佬多多来给萌新指正,欢迎大家来共同探讨。如果各位看官觉得文章有点点帮助,跪求各位给点个“一键三连”,谢啦~声明:本博文章若非特殊注明皆为原创原文链接。