Unity 없이 VRM을 읽고 VTuber 기능을 응용 프로그램에 추가할 수 있는 라이브러리를 만들었습니다.
전압 조절 모듈
VR을 위한 인간형 3D 이미지 형식.이것은 매우 휴대용 포맷으로 VR 가상 세계를 이끌 수 있는 포맷 중의 하나이다.표준은 유니티에서 읽고 쓸 수 있는 실현을 공개했다.
자세한 내용은 아래를 보십시오.
VRM - dwango on GitHub
iOS의 로컬 응용 프로그램으로 처리하고 싶어요!
자신처럼 Swift로 로컬 iOS 프로그램을 만드는 엔지니어는 가능하다면 Swift로 직접 처리하고 싶을 것이다.
또한 로컬 응용 프로그램으로 이미 만들어진 응용 프로그램에 VRM의 프로필 사진을 추가하고 싶은 경우도 있다고 생각합니다.(로컬 응용 프로그램에 Unity를 삽입하는 방법도 있지만 번거롭고 응용 프로그램의 크기도 커졌어요...)
그래서 우리는 Swift로 VRM을 읽고 표시할 수 있는 VTuberKit/VRMKit를 만들었다.
유니티 없이 3D VTuber의 구조를 iOS 응용 프로그램으로 가져올 수 있는 VTuberKit를 공개했다.물론 VRM을 읽을 수도 있습니다.다만 캐릭터를 보여주는 보기로도 좋다.아직 기능이 적기 때문에 할 수 없는 일도 많으니 앞으로 착실하게 추가하세요!https://t.co/ULND2dqeaM#VRM#VTuber-Tatsuya Tanaka/타타(@tanakasan2525)pic.twitter.com/ULn7mpMPet
VTuberKit / VRMKit
자신처럼 Swift로 로컬 iOS 프로그램을 만드는 엔지니어는 가능하다면 Swift로 직접 처리하고 싶을 것이다.
또한 로컬 응용 프로그램으로 이미 만들어진 응용 프로그램에 VRM의 프로필 사진을 추가하고 싶은 경우도 있다고 생각합니다.(로컬 응용 프로그램에 Unity를 삽입하는 방법도 있지만 번거롭고 응용 프로그램의 크기도 커졌어요...)
그래서 우리는 Swift로 VRM을 읽고 표시할 수 있는 VTuberKit/VRMKit를 만들었다.
유니티 없이 3D VTuber의 구조를 iOS 응용 프로그램으로 가져올 수 있는 VTuberKit를 공개했다.물론 VRM을 읽을 수도 있습니다.다만 캐릭터를 보여주는 보기로도 좋다.아직 기능이 적기 때문에 할 수 없는 일도 많으니 앞으로 착실하게 추가하세요!https://t.co/ULND2dqeaM#VRM#VTuber-Tatsuya Tanaka/타타(@tanakasan2525)pic.twitter.com/ULn7mpMPet
VTuberKit / VRMKit
2019년 2월 11일
https://github.com/tattn/VTuberKit
VRM의 프로필 사진은 표시할 수도 있고 Face Tracking을 통해 표정과 머리를 이동할 수도 있습니다.
어떤 느낌인지 ↑ 트위터와 GitHub의 애니메이션 GIF를 보세요.p>
프로비저닝
VRMKit 및 VRMSceneKit에 의존하는 VTuberKitp>
구성은 다음과 같다.p>
https://github.com/tattn/VRMKit
VTuberKit를 사용하면 이미지와 VTuber를 간단하게 표시할 수 있지만 보다 세밀하게 처리하려면 VRMSceneKit 등의 기능을 사용하여 조작할 수 있습니다p>
사용 방법
배치
Carthage와 CocoaPods를 배포할 수 있습니다.아래 설정을 통해 상기 3개 프레임워크에 진입p>
github "tattn/VTuberKit"
pod 'VTuberKit'
화신
(C) Kizuna AI
(C) SSS LLC.
VTuberKit 사용 시p>
import VTuberKit
// StoryboardでVTuberKitのAvatarViewを配置
@IBOutlet weak var avatarView: AvatarView!
// プロジェクトにあるVRMファイルを読み込んで表示
try avatarView.loadModel(withName: "model.vrm")
VRMSceneKit 사용 시p>
import VRMKit
import VRMSceneKit
// StoryboardでSCNViewを配置
@IBOutlet weak var sceneView: SCNView!
let loader = try VRMSceneLoader(named: "model.vrm")
let scene: VRMScene = try loader.loadScene()
let node: VRMNode = scene.vrmNode
sceneView.scene = scene
// URLやDataから読み込むこともできます
let loader = try VRMSceneLoader(withURL: URL(string: "...")!)
let loader = try VRMSceneLoader(withData: Data(...))
Face Tracking
Face Tracking으로 자신의 표정을 화신에 반영하고 싶을 때 아래 내용을 호출하세요p>
avatarView.startFaceTracking()
※ 현재 TrueDepth API를 사용할 수 있는 단말기에서만 사용할 수 있지만, 향후 업데이트에서는 모든 단말기를 이동시키고 싶습니다p>
표정을 바꾸다
VRM에서 혼합 변형을 설정하면 간단하게 표정을 바꿀 수 있다p>
let node: VRMNode = avatarView.avatar
node.setBlendShape(value: 1.0, for: .preset(.joy))
node.setBlendShape(value: 1.0, for: .preset(.angry))
// VRM標準ではない表情を表示する
node.setBlendShape(value: 1.0, for: .custom("><"))
귀엽다
자세를 바꾸다
뼈가 설정된 경우 자세를 변경할 수 있습니다.p>
node.humanoid.node(for: .neck)?.eulerAngles = SCNVector3(0, 0, 20.0 * .pi / 180)
node.humanoid.node(for: .leftShoulder)?.eulerAngles = SCNVector3(0, 0, 40.0 * .pi / 180)
node.humanoid.node(for: .rightShoulder)?.eulerAngles = SCNVector3(0, 0, 40.0 * .pi / 180)
Unity의 뼈는 동일합니다.
Mechanim
앞으로 몇 가지 자세의 사전 설정을 준비하고 호출하면 설정을 하거나 유니티의 자세 등을 포착할 수 있는 구조 등을 넣거나 아이폰의 카메라 이미지로 Pose Estimation을 해서 온몸을 움직일 수 있을 것 같습니다.p>
총결산
https://github.com/tattn/VTuberKit
xR과 VTuber 같은 스타일을 좋아해서 라이브러리를 만들어 보았습니다.
세상에 다양한 어플리케이션에 아바타가 나오는 시대가 온다면 정말 기쁠 것 같아요.p>
향후 업데이트에 대해서는 참조https://github.com/tattn/VRMKitp>
기능이 여전히 부족하고 UniVRM에서 제공하는 착색기, 물리적 연산, 렌더링 설정 등을 구현할 수 없으므로 잡아당기기 요청을 기다립니다.
버그도 아직 많을 것 같지만, GitHub에 issue와 pull을 요청하면 큰 도움이 될 것 같습니다.일본어도 괜찮아요.(관리가 힘들기 때문에 Qiita 댓글에 쓰지 마세요
Reference
이 문제에 관하여(Unity 없이 VRM을 읽고 VTuber 기능을 응용 프로그램에 추가할 수 있는 라이브러리를 만들었습니다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/tattn/items/c2d4505064f78da93ef3텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)