회의 내용을 자동으로 텍스트 마이닝하자!
9596 단어 GoogleCloudPlatform
소개
"MTG 내용을 텍스트 마이닝하고 터무니없어?"뭐라고 하는 상담이 나왔습니다.
거기에서 시작된 kotadora 모험의 책입니다.
모르기 때문에 처음부터 공부.
기본 사고 방식
어쨌든 말하기 ⇒ 텍스트로 변환 ⇒ 텍스트에 대해 마이닝 ⇒ JS가 뭔가로보기 쉽다
라는 흐름이 되는 것은 눈에 보였다. 단지, 방법이네.
라는 것으로 찾아 가면, google님에게 좋을 것 같은 것이 있는 것은 아닐까! 그렇다고 해서 구구리마쿠루.
결국 흐름으로서는
이런 느낌이 될 것 같다. 바로 cloud functions 다양한 계획.
cloud functions란? ?
아무튼 요컨대 pub/sub를 복수 실행할 수 있는 스그레모노라는 인식입니다(잡)
pub/sub의 google님의 설명을 불렀는데, 결국 퍼블리셔와 구독자는 결국 뭐야, 라고 생각했기 때문에 망설이면 다음 기사가.
정보 제공자를 게시자라고 합니다. 게시자는 특정 제목에 대한 정보를 제공하지만 정보를 요청하는 응용 프로그램에 대해 아무 것도 알 필요가 없습니다.
정보 이용자를 구독자라고 합니다. 구독자는 어떤 정보가 필요한지 결정하고 해당 정보가 수신될 때까지 기다립니다. 구독자는 광범위한 게시자로부터 정보를 수신하고 해당 정보를 다른 구독자에게 보낼 수 있습니다.
htps //w w. 이 bm. 이 m/숏 rt/k의 w㎇d 꼼꼼히 r/그럼/s sKKSJ_7.1.0/코 m. 이 bm. mq. 예 xp r. c / p_pu b 모든 rs. htm
라는 것. 글쎄, 제발 만들어 보시겠습니까?
우선 할 수 있습니까?
맥북에서 SpeechAPI를 할 수 없습니까? 라고 생각 구구한다.
htps : // 코 m / 미쿠리와 히로시 /
있을까. 고마워요, 물론 참고하겠습니다.
라고 할까, 에! ? 이렇게 간단하게 할 수 있는 거야! ? 맞습니다. 완성되었습니다. . . .
그럼, 이것에 NaturalLanguageAPI 붙이면... 갈 수 있어!
아, 참고로 수수하지만 환경 변수 export는 export -p 로 리스트가, -n 로 지울 수 있습니다. (뭐, 거듭하면 좋지만.)
설명과 보충
전 자료는 htps : // 기주 b. 이 m/오오 gぇ아피 s/이므로 js-s페에 ch/bぉb/마s테 r/사 mpぇs/파카게. j 그런
package.json{
"name": "test", //import()require()で呼び出すとき使うもの
"version": "0.0.1", //nameとversionで1セット。この2つで定義。
"private": true, //これでnpm(NodePackagedModule)のモジュールが非公開のもの=つまりローカルにインストールされる($HOME内ということですね。)
"license": "Apache Version 2.0",
"author": "Google Inc.",
"scripts": {
"test": "cd ..; npm run --verbose speech/system-test/*.test.js"
}, //ここにはshellスクリプトで実行する内容をそのまま書く。この場合、cd .. で戻って、npn run。
"dependencies": {
"@google-cloud/speech": "0.9.0",
"@google-cloud/storage": "1.0.0",
"node-record-lpcm16": "0.3.0"
}, //依存するパッケージ(もちろんnpmの。)をここに書いている。つまり、ここに書いたパッケージを自動的に落としてくれるという優れもの(もちろんnpmにあるという、ね笑)
"engines": {
"node": ">=4.3.2"
} //ノードの場所定義。
}
test.json{
const record = require('node-record-lpcm16'); //const つまり varとかと違って再度代入出来ない変数。後出しは不可。
const speech = require('@google-cloud/speech');
const speechClient = speech(); //Google-cloudのnpmでのspeechのパッケージの中の関数を使う。
const SAMPLE_RATE = 16000 //サンプリングレート。
const request = { //SpeechAPIのcreateRecognizeStreamという場所に設定(でもどこ??
config: {
encoding: 'LINEAR16',
sampleRateHertz: SAMPLE_RATE,
languageCode: 'ja-jp'
}
};
const recognizeStream = speechClient.createRecognizeStream(request)
.on('error', console.error)
.on('data', (data) => {
console.log(data.results);
});
record.start({
sampleRate: SAMPLE_RATE,
thresholdStart: 0.2, // silence threshold to start recording, overrides threshold
thresholdEnd: 0.1, // silence threshold to end recording, overrides threshold
silence: '0.1' // seconds of silence before ending
}).pipe(recognizeStream);
}
API 참조
htps : // c ぉ d. 오, ぇ. 이 m/이므로 js/도cs/레후페렌세/s페에 ch/1.4. x/v1. S 페에 ch C 페엔 t
주) 2018/4월에 초안 쓰기, 그대로 방치하고 있습니다. 다만, 필요에 강요당했기 때문에 일단 공개하고 있습니다
Reference
이 문제에 관하여(회의 내용을 자동으로 텍스트 마이닝하자!), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/kotadora/items/f723055cab486e731248
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
{
"name": "test", //import()require()で呼び出すとき使うもの
"version": "0.0.1", //nameとversionで1セット。この2つで定義。
"private": true, //これでnpm(NodePackagedModule)のモジュールが非公開のもの=つまりローカルにインストールされる($HOME内ということですね。)
"license": "Apache Version 2.0",
"author": "Google Inc.",
"scripts": {
"test": "cd ..; npm run --verbose speech/system-test/*.test.js"
}, //ここにはshellスクリプトで実行する内容をそのまま書く。この場合、cd .. で戻って、npn run。
"dependencies": {
"@google-cloud/speech": "0.9.0",
"@google-cloud/storage": "1.0.0",
"node-record-lpcm16": "0.3.0"
}, //依存するパッケージ(もちろんnpmの。)をここに書いている。つまり、ここに書いたパッケージを自動的に落としてくれるという優れもの(もちろんnpmにあるという、ね笑)
"engines": {
"node": ">=4.3.2"
} //ノードの場所定義。
}
{
const record = require('node-record-lpcm16'); //const つまり varとかと違って再度代入出来ない変数。後出しは不可。
const speech = require('@google-cloud/speech');
const speechClient = speech(); //Google-cloudのnpmでのspeechのパッケージの中の関数を使う。
const SAMPLE_RATE = 16000 //サンプリングレート。
const request = { //SpeechAPIのcreateRecognizeStreamという場所に設定(でもどこ??
config: {
encoding: 'LINEAR16',
sampleRateHertz: SAMPLE_RATE,
languageCode: 'ja-jp'
}
};
const recognizeStream = speechClient.createRecognizeStream(request)
.on('error', console.error)
.on('data', (data) => {
console.log(data.results);
});
record.start({
sampleRate: SAMPLE_RATE,
thresholdStart: 0.2, // silence threshold to start recording, overrides threshold
thresholdEnd: 0.1, // silence threshold to end recording, overrides threshold
silence: '0.1' // seconds of silence before ending
}).pipe(recognizeStream);
}
Reference
이 문제에 관하여(회의 내용을 자동으로 텍스트 마이닝하자!), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/kotadora/items/f723055cab486e731248텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)