超简单集成ML kit 实现听写单词播报

  相信我们大家在刚开始学习一门语言的时候都有过听写,现在的小学生学语文的时候一项重要的课后作业就是听写课文中的生词,很多家长们都有这方面的经历。不过一方面这种读单词的动作相对简单,另一方面家长的时间也很宝贵,现在市场上出现了很多xx课后听写的语音,这些播讲人将语文教材上的课后听写单词录好,给家长下载使用,不过这种录音不够灵活,如果老师今天额外留了几道不是课后习题中的单词,这部分的录音就不能满足家长和孩子们的需要。本文就介绍了一个使用我们ML kit 的通用文本识别功能和语音合成功能共同实现自动语音播报APP,只需要对听写的单词或者课文拍照,然后就能自动播报照片中的文字,播报的音色、音调都可以调整。

在这里插入图片描述

开发前准备 打开AndroidStudio项目级build.gradle文件

在这里插入图片描述


  在allprojects ->repositories里面配置HMS SDK的maven仓地址

allprojects { repositories { google() jcenter() maven {url 'http://developer.huawei.com/repo/'} } }

  在buildscript->repositories里面配置HMS SDK的maven仓地址

buildscript { repositories { google() jcenter() maven {url 'http://developer.huawei.com/repo/'} } }

  在buildscript->repositories里面配置HMS SDK的maven仓地址

buildscript { repositories { google() jcenter() maven {url 'http://developer.huawei.com/repo/'} } }

  在buildscript->dependencies中,配置AGC插件

dependencies { classpath 'com.huawei.agconnect:agcp:1.2.1.301' } 添加编译依赖

  打开应用级的build.gradle文件

在这里插入图片描述

  集成SDK

dependencies{ implementation 'com.huawei.hms:ml-computer-voice-tts:1.0.4.300' implementation 'com.huawei.hms:ml-computer-vision-ocr:1.0.4.300' implementation 'com.huawei.hms:ml-computer-vision-ocr-cn-model:1.0.4.300' }

  应用ACG插件,添加在文件头即可

apply plugin: 'com.huawei.agconnect'

  指定权限和特性:在AndroidManifest.xml中进行声明

<uses-permission android:name="android.permission.CAMERA" /> <uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE" /> <uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" /> <uses-feature android:name="android.hardware.camera" /> <uses-feature android:name="android.hardware.camera.autofocus" />

  作业朗读代码关键步骤

  主要有两个功能,一个是识别作业文本,一个是朗读作业,通过OCR+TTS实现作业朗读,拍照后点击播放即可朗读。

动态权限申请

private static final int PERMISSION_REQUESTS = 1; @Override public void onCreate(Bundle savedInstanceState) { // Checking camera permission if (!allPermissionsGranted()) { getRuntimePermissions(); } }

启动朗读界面

public void takePhoto(View view) { Intent intent = new Intent(MainActivity.this, ReadPhotoActivity.class); startActivity(intent); }

在onCreate()法中调用createLocalTextAnalyzer()创建端侧文本识别器

private void createLocalTextAnalyzer() { MLLocalTextSetting setting = new MLLocalTextSetting.Factory() .setOCRMode(MLLocalTextSetting.OCR_DETECT_MODE) .setLanguage("zh") .create(); this.textAnalyzer = MLAnalyzerFactory.getInstance().getLocalTextAnalyzer(setting); }

在onCreate()法中调用createTtsEngine ()创建语音合成引擎,并构建语音合成回调,用于处理语音合成结果,将语音合成回调传入新建的语音合成引擎中

private void createTtsEngine() { MLTtsConfig mlConfigs = new MLTtsConfig() .setLanguage(MLTtsConstants.TTS_ZH_HANS) .setPerson(MLTtsConstants.TTS_SPEAKER_FEMALE_ZH) .setSpeed(0.2f) .setVolume(1.0f); this.mlTtsEngine = new MLTtsEngine(mlConfigs); MLTtsCallback callback = new MLTtsCallback() { @Override public void onError(String taskId, MLTtsError err) { } @Override public void onWarn(String taskId, MLTtsWarn warn) { } @Override public void onRangeStart(String taskId, int start, int end) { } @Override public void onEvent(String taskId, int eventName, Bundle bundle) { if (eventName == MLTtsConstants.EVENT_PLAY_STOP) { if (!bundle.getBoolean(MLTtsConstants.EVENT_PLAY_STOP_INTERRUPTED)) { Toast.makeText(ReadPhotoActivity.this.getApplicationContext(), R.string.read_finish, Toast.LENGTH_SHORT).show(); } } } }; mlTtsEngine.setTtsCallback(callback); }

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/wpfxgx.html