Watson 음성인식(STT:Speech to Text)을 Swift 앱으로 사용해 보았다.
여기
조금 해설
샘플에는 Recorded Audio, Streaming Audio, Custom Capture Sessions가 있다.
1. Recorded Audio - 녹음된 오디오 파일을 사용합니다.
2. Streaming Audio - 마이크에 말하고 실시간으로 음성 인식.
3. Custom Capture Session - 독자적인
AVCaptureSession
로 AVCaptureAudioDataOutput
를 사용한다. 이것은 음성 데이터의 이퀄라이저를 화면에 표현하거나, 음성 데이터를 보존하거나, 용도 다수.만드는 방법은 다음과 같습니다.
1. 샘플 프로젝트 체크아웃
GitHub에서 Speech to Text Demo (Swift)를 복제합니다.
$ git clone https://github.com/watson-developer-cloud/speech-to-text-swift.git
프로젝트 에서 빌드.
$ carthage update --platform iOS
2. 샘플 프로젝트 수정
/ios-sdk/Examples/SpeechToText/Carthage/Build/iOS/SpeechToTextV1.framework
Credentials.plist
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
<key>SpeechToTextUsername</key>
<string>70c5833dc-a53a-ca94-6c9ee-f89a23dd3ggg</string>
<key>SpeechToTextPassword</key>
<string>0bUzR0Hmkv1g</string>
</dict>
</plist>
3. 일본어에 대응시킨다
TranscriptionSettings의 model을 추기해 주면, 일본어를 들어준다.
ViewController.swift
// configure settings for streaming
var settings = TranscriptionSettings(contentType: .L16(rate: 44100, channels: 1))
settings.model = "ja-JP_BroadbandModel"
4. 실행 결과
Start Streaming 버튼을 눌러 iPhone에 말을 걸면 문자가 표시된다. 일본어의 청취에 대해서는, 조금 비밀이므로, 이것은 조정할 수 있을까…? 게다가. 단어보다 긴 문장으로 말을하는 것이 문맥이 있으므로, 정밀도는 높아진다? !
더 자세한 것은
IBM Speech to Text service:
또한, Android에 대해서는, 이쪽의 기사가 참고가 됩니다.
IBM Watson Speech to Text - Demo
Reference
이 문제에 관하여(Watson 음성인식(STT:Speech to Text)을 Swift 앱으로 사용해 보았다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/simonTokyo/items/91a320ba16815b6a6038텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)