现在app的开发进程会集成一些语音识别功能,而一般开发者是不具备自己开发一套语音识别引擎的,因此大多数情况是选择一个已经成熟的语音识别引擎SDK集成到自己的app中。
通常情况下,这种集成分两种,一种是直接调用SDK为开发者设计好的弹出框,开发者不需要开发识别交互界面;还有一种是开发者只利用SDK提供的语音识别服务,自己开发一个属于自己的交互设计。
本文介绍最简单直接调起弹出框的方法。
首先,测试机需要安装如谷歌语音、百度语音、讯飞语音等产品的语音软件,这时可以在系统设置界面的语言与输入处找到相关的语音识别功能列表。然后就可以直接调用了。
下面是调用的步骤:
首先:在Activity中实例一个intent,intent的action设置为RecognizerIntent.ACTION_RECOGNIZE_SPEECH或者RecognizerIntent.ACTION_WEB_SEARCH,关于RecognizerIntent可以查看本博客之前的文章,然后调用一个带返回结果的操作
不知道你是哪里看到的,这是一个很新的概念。现在的话也基本实现了,用到了人工智能。asset store里面有工具包,可以添加一些语音识别机制到unity的c#脚本里。
不过这都是最基础的。没法做到像alphago一样人工智能的深度学习,可以自主的分析
Photoshop|
Dreamweaver|
SVG|
WebGL|
Visual Studio|
PowerDesigner|
Eclipse|
Git|
Apache Ant|
Atom|
Composer|
CodeSmith|
Flex|
Gradle|
Maven|
Sublime Text3|
SVN|
Tableau|
Vim|
Chrome开发者工具|
OpenGL|
Unity|
Direct3D|
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....