仮想サーファーの波乗り

仮想サーファーの日常

プログラミング・SNS分析・仮想通貨・自動化などに関してよく書く雑記ブログ

【イベントレポート】年末スペシャル xR Tech Tokyo #13 @メルカリに参加してきた


f:id:virtual-surfer:20181209143335p:plain

年末スペシャル xR Tech Tokyo #13 @メルカリに参加してきたので、イベントレポートを書いておきます。


最近は仮想現実技術へのさわってみたい・開発したい欲が強まってきておりまして。もともと僕が「仮想サーファー」という名前でこのブログをはじめたのも仮想通貨・仮想現実技術に対しての情報発信ができたらいいなという動機だったし。そんなこんなで、今回はxR Tech Tokyoさんに参加させてもらいました。


VR・ARプロダクトを開発されている方・界隈に興味のある方が集まるイベントで、なんでプロダクトを開発したのか、プロダクトを開発する上で苦労したことなどが話されていたので、イベントレポートと感想を書いておきます。


受付入ってすぐ、こちらのTwitterアカウントの写真とQRコードがついたシールを胸に貼るシステム。Twitter交換とかしやすくてよい。

f:id:virtual-surfer:20181209144341p:plain


Sessionのメモ

以下、イベントでのSessionのメモ書き。


VAIR Field

【登壇者】株式会社CENOTE CEO 安本 匡佑さん
【プロダクト/サービス】VAIR

vimeo.com

VRサバゲー用のプロダクトを開発している。


HTC Viveのコントローラーとスマホと銃(自社開発)を組み合わせて作られたデバイスを使って、スマホに映し出された映像をみながらサバゲーができる。リアルな障害物を判定する仕組みにしているから、障害物に隠れれば攻撃をさけられるようになっている。

VAIR Fieldの現在の最新世代(第三世代)では、それまでの2つの世代の問題を解決していて、シングルとフルオートの切り替えができるようになっていて振動(バイブ)も伴うようになっているそう。やってみたい。


長時間利用ってできるのかな?と疑問でしたが、バッテリーを1~2時間に1回切り替えるだけで給電できて遊び続けられるような設計になっているよう。

今後の課題としては、10m × 10mの対応しか現状できていないため広範囲対応をすること、ネットワーク対戦(東京都・大阪など)を実装すること。


VAIR – 株式会社CENOTE


VAIR Field

【登壇者】株式会社ActEvolve CEO 加藤 卓也 (@kato_actevo)さん
【プロダクト/サービス】VARK

twitter.com

「VRでcluster一択の状況を変えたい。とはいえ競争はしたくない」という考えでVARKを開発した。VARKは2万5千円のOculusGOで動き、大衆向けに開発されている。

cluster・VR SPARCは、スタンドアローンで動きハイエンドでVRにある程度お金を出している層に向かってる。


VTuberライブ構成の鉄板は、歌(録画)→MC(生)→歌(録画)...というサイクルになっている。

全てが生配信だと思っているユーザーも多い。コンテンツプラットフォームとしては、録画コンテンツの歌と生のコンテンツのMCをいかに自然に切り替えられるかが大事。


仕組みは単純化すると、モーションデータをサーバーに送り、サーバーからOculusなどのデバイスにデータを送っている。バックエンドは、ソーシャルゲームやMMOと同じ仕組みになっている。ErangとElixirで書いている。フロントはC#・Unity。


開発で苦しかったこととしては。Oculusのコンテンツレビューとの戦いが苦しかった。

・コンテンツレビュー。Oculus開発メンバー(国外)はVTuberを知らない。説明するのが難しい。
・いつ出るかわからない。だからチケット発売日とかコントロールできない。
・60fpsマスト。


視野角が狭い&GPU処理が低スペックなOculusGoだと、演者さん2人も出すとカクカクしてしまう。リダクション頑張らないと。


VRライブでの問題としてわかったこと。

・自由に動きたいというけど、自由に動いているユーザーはいない。一番真ん中のいい席で動かない人が大半。だから自由に動き回れる機能を削った。
・隣のおじさんが邪魔だな問題。


VTuberのライブでVTuberの動きを見たいのに、生のおっさんの動きが入ってきて邪魔に感じる。

VARKはVTuberライブに特化したかったので、clusterなどと違って他の参加者を黒モブにしている。とはいえ参加者の動きを表現して会場の盛り上がりを表現したいので、 会場が盛り上がっているかどうかによって、黒モブの動きに反映するようにしている。個人の特徴は消して、みんなの特徴を抽出してみんなに反映している。


今後は、アバター機能をつくる。握手会もやる。将来的にはソーシャルプラットフォームになりたい。VRライブでユーザーがお金を払うことがわかってきたので、握手会などのお金を落としてもらうイベントを模索している。VRは儲からないと言われているけど儲かる事例を作りたい。


にじ3D

【登壇者】いちから株式会社 代表取締役CEO 田角 陸 (@riku_tazumi)さん
【プロダクト/サービス】にじさんじ・にじ3D


VTuberはアニメ業界を代替するもの。より低コストでSNSにストック化していくことができる。

「魔法のような、新体験」をミッションにアニメ業界をアップデートすることを目指していたらVRになった。事業ではVRやXRは目的ではなく手段。「アニメのユーザーがファンになるのは感情移入体験があるからなのでは?」という仮説に基づいて、キャラクターに感情移入体験をできるようなコンテンツが必要。であれば、顔の方が体よりも優先度が高いのではないかと顔優先のコンテンツ製作を始めた。


VTuberではHMDがよく使われるが、HMDをかぶったVTuberはフェイストラッキングができず5パターンくらいのテンプレしか表現できない。表情での感情表現はもっといっぱいあるはず。ボタンでの制御ではなくてFaceTrackingでの制御をできるようにした。利用したのはiPhone10のAnimoji。

にじ3D。要件は、日技術者でも小さいスペース(自宅)で一人で3D配信できること。FaceTrackingで顔のモーション指の動きなどをトラッキングできること。以上の要件で画像処理・Leap Motionなども試したがOculusに決定した。理由は以下。

・画像処理は生配信の実用レベルでは難しかった。
・Leap Motionは指のモーションが細かく取れた。デメリットとしては安定性が弱くモデルが破綻しやすかったこと。
・WindowsMRは自宅などの狭い場所でも使えるが、配信者が簡単に使えなかった。セットアップが大変そうだった。
・Oculus Riftは配信者でも使いやすく、設置もしやすいし可視光で光らない。デメリットは指の細かい動きが取れない。

最終的に指の動きはボタンで制御することで妥協点とした。


苦労したのはモデリング周り。表情を細かく描画することがフォーマットでは少ないため、対応が難しい。人間っぽい自然な動きを表現するための微調整が大変だった。配信者が椅子に座っているのが前提なので、頭がどう動いたら体全体がどう動くか?を微調整するのが大変。

にじ3Dは、ライブ配信をするという目的に特化しているので、VARKやclusterと競合になりづらい。コントローラー持つだけで3D配信でき、テンプレートの表情ではなくて配信者の表情を表現できる。


にじ3D

【登壇者】VRけん玉師ジン (@VRkendama)さん
【プロダクト/サービス】VRけん玉

twitter.com


けん玉ができないのは、玉の動きに手の動きがついていかないから。仮想空間で玉の動きを遅くしておいて成功するようにして、徐々に玉の動きを速くするようにすれば、現実世界でもけん玉ができるようになるはず。

あるイベントでは、体験した144人中138人がけん玉をできるようになったみたい。すごい。


あとVR関係ないけど、けん玉パフォーマーの方のけん玉実演がすごかった( ・v・)b



他にも登壇された方はいたのですが、ぼくはけん玉VRの方のSessionの時に別用で帰りました。他の人のも聞きたかった残念...。


まとめ

以上、「【イベントレポート】年末スペシャル xR Tech Tokyo #13 @ メルカリに参加してきた」でした。

登壇されていた方以外にも、魔法陣のようなものに英単語を書いて3DモデルをAR表示するアプリや、HTC Vive・PlaystationVR・Oculusでプレイできる脱出ゲームの出店などもあって体験させてもらいましたが面白かったです。


f:id:virtual-surfer:20181209150159p:plain

魔法陣のようなARアプリはGoogle Cloud Platformのテキスト認識APIとARKitを使ってるようで1週間半程度で実装できたそう。


VR・ARの開発SKDのノウハウがネット上にたまってきていて、刺さるコンテンツも徐々に見出されてきているようなので、開発おもしろくなってきているなあと感じました。

AR触ってみたいし実装したい( ・v・)b


では!