iOS自带文本转语音技术(TTS)的实现即语音播报的实践

文本转语音技术, 也叫TTS, 是Text To Speech的缩写. iOS如果想做有声书等功能的时候, 会用到这门技术.

一,使用iOS自带TTS需要注意的几点:

1.iOS7之后才有该功能

2.需要 AVFoundation 库

3.AVSpeechSynthesizer: 语音合成器, 可以假想成一个可以说话的人, 是最主要的接口

4.AVSpeechSynthesisVoice: 可以假想成人的声音

5.AVSpeechUtterance: 可以假想成要说的一段话

二,代码示例, 播放语音

//语音播报
AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:@"床前明月光,疑是地上霜。"];
utterance.pitchMultiplier=0.8;
//中式发音
AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"];
//英式发音
// AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"en-GB"];
utterance.voice = voice;
NSLog(@"%@",[AVSpeechSynthesisVoice speechVoices]);
AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc]init];
[synth speakUtterance:utterance];

三,AVSpeechSynthesizer介绍

这个类就像一个会说话的人, 可以”说话”, 可以”暂停”说话, 可以”继续”说话, 可以判断他当前是否正在说话.有以下的方法或者属性:
•说话: speakUtterance

•控制: continueSpeaking(继续说), pauseSpeakingAtBoundary(暂停说话), paused(暂停状态的属性), speaking(说话的状态), stopSpeakingAtBoundary(停止说话)

•委托: delegate

四,AVSpeechBoundary介绍

这是一个枚举. 在暂停, 或者停止说话的时候, 停下的方式用这个枚举标示. 包括两种:

•AVSpeechBoundaryImmediate: 立即停

•AVSpeechBoundaryWord : 说完一个整词再停

五,AVSpeechSynthesizerDelegate介绍

合成器的委托, 对于一些事件, 提供了响应的接口.

•didCancelSpeechUtterance: 已经取消说话

•didContinueSpeechUtterance: 已经继续说话

•didFinishSpeechUtterance: 已经说完

•didPauseSpeechUtterance: 已经暂停

•didStartSpeechUtterance:已经开始

•willSpeakRangeOfSpeechString:将要说某段话

六,AVSpeechSynthesisVoice介绍

AVSpeechSynthesisVoice定义了一系列的声音, 主要是不同的语言和地区.

•voiceWithLanguage: 根据制定的语言, 获得一个声音.

•speechVoices: 获得当前设备支持的声音

•currentLanguageCode: 获得当前声音的语言字符串, 比如”ZH-cn”

•language: 获得当前的语言

七,AVSpeechUtterance介绍

这个类就是一段要说的话. 主要的属性和方法有:

•pitchMultiplier: 音高

•postUtteranceDelay: 读完一段后的停顿时间

•preUtteranceDelay: 读一段话之前的停顿

•rate: 读地速度, 系统提供了三个速度: AVSpeechUtteranceMinimumSpeechRate, AVSpeechUtteranceMaximumSpeechRate,

AVSpeechUtteranceDefaultSpeechRate

•speechString: 要读的字符串

•voice: 使用的声音, 是AVSpeechSynthesisVoice对象

•volume: 音量

八,UML关系图

这些类的关系如下:

以上所述是小编给大家介绍的iOS自带文本转语音技术(TTS)的实现即语音播报的实践,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对我们网站的支持!

(0)

相关推荐

  • iOS开发之手势识别

    一.UIGestureRecognizer简单介绍 我们已经学习了触摸事件处理,但触摸事件处理起来很麻烦,每个触摸事件处理都需要实现3个touches方法,比较繁琐,实际上我们可以使用更加简单的触摸事件处理操作,那就是 手势识别UIGestureRecognizer . 手势识别操作基类UIGestureRecognizer不能直接使用,我们常使用的是它的子类,这些手势操作类都继承自UIGestureRecognizer类 常用手势识别子类: 点按手势 UITapGestureRecognize

  • iOS10语音识别框架SpeechFramework应用详解

    摘要: iOS10语音识别框架SpeechFramework应用 一.引言 iOS10系统是一个较有突破性的系统,其在Message,Notification等方面都开放了很多实用性的开发接口.本篇博客将主要探讨iOS10中新引入的SpeechFramework框架.有个这个框架,开发者可以十分容易的为自己的App添加语音识别功能,不需要再依赖于其他第三方的语音识别服务,并且,Apple的Siri应用的强大也证明了Apple的语音服务是足够强大的,不通过第三方,也大大增强了用户的安全性. 二.S

  • IOS开发第三方语音-微信语音

    微信只能开发平台http://pr.weixin.qq.com/,里面包含了微信语音和图像,集成很简单,下载方demo后会有个文档,按照流程来(因为它只提供了真机的.a文件,所以只能用真机哦,不然会报错) 先用个有UI界面的sdk 1.装上sdk,引入相关包 2.设置 Build Settings C++ Standard Library: libstdc++ 或 Compiler Default Compile Sources As: Objective-C++ 或 将使用 SDK 的文件扩展

  • iOS自带文本转语音技术(TTS)的实现即语音播报的实践

    文本转语音技术, 也叫TTS, 是Text To Speech的缩写. iOS如果想做有声书等功能的时候, 会用到这门技术. 一,使用iOS自带TTS需要注意的几点: 1.iOS7之后才有该功能 2.需要 AVFoundation 库 3.AVSpeechSynthesizer: 语音合成器, 可以假想成一个可以说话的人, 是最主要的接口 4.AVSpeechSynthesisVoice: 可以假想成人的声音 5.AVSpeechUtterance: 可以假想成要说的一段话 二,代码示例, 播放

  • IOS自带Email的两种方法实例详解

    IOS自带Email的两种方法实例详解 IOS系统框架提供的两种发送Email的方法:openURL 和 MFMailComposeViewController.借助这两个方法,我们可以轻松的在应用里加入如用户反馈这类需要发送邮件的功能. 1.openURL 使用openURL调用系统邮箱客户端是我们在IOS3.0以下实现发邮件功能的主要手段.我们可以通过设置url里的相关参数来指定邮件的内容,不过其缺点很明显,这样的过程会导致程序暂时退出.下面是使用openURL来发邮件的一个小例子: #pr

  • 基于IOS实现带箭头的view

    我使用DrawRect进行的View的拉伸(是这样描述的吧??), 效果图也实现了类似于微信的View效果, 你可以看一看. 创建继承于UIView的视图 .h文件 // backGoundView @property (nonatomic, strong) UIView * _Nonnull backGoundView; // titles @property (nonatomic, strong) NSArray * _Nonnull dataArray; // images @proper

  • iOS自带动画效果的实例代码

     1.普通动画: [UIView beginAnimations:nil context:nil]; [UIView setAnimationDuration:2]; frame.origin.x += 150; [img setFrame:frame]; [UIView commitAnimations]; 2.连续动画(一系列图像): NSArray *myImages = [NSArray arrayWithObjects: [UIImage imageNamed:@"myImage1.p

  • iOS 委托与文本输入(内容根据iOS编程编写)

    •文本框(UITextField) 本章节继续编辑 JXHypnoNerd .文件地址 . 首先我们继续编辑 JXHypnosisViewController.m 修改 loadView 方法,向 view 中添加一个 UITextField 对象: #import "JXHypnosisViewController.h" #import "JXHypnosisView.h" @interface JXHypnosisViewController () @end @

  • Python+pyplot绘制带文本标注的柱状图方法

    如下所示: import numpy as np import matplotlib.pyplot as plt # 生成测试数据 x = np.linspace(0, 10, 10) y = 11-x # 绘制柱状图 plt.bar(x, y) # 循环,为每个柱形添加文本标注 # 居中对齐 for xx, yy in zip(x,y): plt.text(xx, yy+0.1, str(yy), ha='center') # 显示图形 plt.show() 运行效果: 以上这篇Python+

  • 微信小程序实现modal弹出框遮罩层组件(可带文本框)

    modal弹出框遮罩层可实现提示信息.验证码等功能 然而在官方文档已经删除了modal的页面,说要废弃modal 就个人而言modal组件无法被wx.showModal完全替代.大家都知道小程序的wxml的组件可以通过改变js的值实现重新渲染,而接口是无法实现的 有同感的也不止博主一个人 官方18-5-13的建议要实现此类功能也是用modal 属性 说下遮罩层实现,通过改变modal的hidden属性来控制是否显示,通过监听confirm方法来确认提交,通过bindinput来监听modal内表

  • 使用科大讯飞语音SDK实现文字在线合成语音

    最近需要使用到语音播报的功能,在百度七武器百度语音和科大讯飞的语音当中考虑到准确性和专业性,选择了科大讯飞.科大讯飞所提供的android开发sdk有两种一种是集成了自身产品语音+的sdk,功能比较强大但是会初始化语音服务模块:另一种是纯开发sdk不集成产品只需要导入相应jar包就可以使用.考虑到只用到了语音合成的技术所以选择了第二种sdk. 具体代码如下所示: private SpeechSynthesizer mTts; private int isSpeaking = 0; mTts= S

  • Android实现录音方法(仿微信语音、麦克风录音、发送语音、解决5.0以上BUG)

    先给大家展示下效果图,如果大家感觉不错,请参考使用方法, 效果图如下所示: 使用方法: 录音工具类:AudioRecoderUtils.java,代码如下: public class AudioRecoderUtils { //文件路径 private String filePath; //文件夹路径 private String FolderPath; private MediaRecorder mMediaRecorder; private final String TAG = "fan&q

  • iOS实现富文本编辑器的方法详解

    前言 富文本编辑器不同于文本编辑器,国内做的比较好的比如有百度的UEditor和kindEditor.但是这两个也有它的缺点:界面过于复杂.不够简洁.UI设计也比较落后.不够轻量化,这篇文章我们将给大家介绍利用iOS如何实现富文本编辑器. 实现的效果 解决思路 采用webview加载一个本地html文件,该html内部编写好js方法用于与oc相互调用 最终输出该富文本字符串传输给服务器 为什么选择这样的方式 服务端要求我最终返回的数据格式为: { @"Id":"当时新建模板这

随机推荐