どうも。MiraBotチームの中の人(自称:35歳児)です。
最初は VaM(Virt-a-Mate) の沼にハマって、調べて触っているうちに、気づけば OSR という“副産物”に出会った——そんな人、きっと他にもいますよね?🙋‍♂️

VaMのキャラと“インタラクション”が生まれた瞬間、ただの鑑賞VRが触れる感覚に変わる。あの衝撃は今でも忘れられません。
…が、しばらくすると 倦怠期 がやって来るんです。どんなに刺激的なキャラや動きでも、OSRと合わせると「なんかもう一声…?」ってなる時期。※正直に言うと、体の一部がそう言ってくる😅

「もっと自由に動きを作れたらいいのに。3Dアニメを毎回作るのは無理!」
——そんな願望、ありません?

スマホ=指揮者。VaMとMiraBotを“手元主導”で同期

そこで最近、MiraPlay AiO の ジェスチャー操作 をコツコツ磨いてみました。
スマホをVaMの特定ボーンに“ひもづけ”→ スマホの ジャイロ(姿勢)データ をVaMへ送る → 同時にMiraBot(OSR)も追従。
結果、手元の一捻りが、そのままシーンのニュアンスになるやつができたんです。

つまり、固定シーンの設計思想に縛られず、その場で“演出”できる
反応が返ってくるスピード感が気持ちよくて、遊びの幅が一段と広がるのを実感しました。

「受け身で再生する人」から、“演出家”ポジへ。
スライダーをちょい足し、端末を軽く傾ける、タップでアクセント——その小さな操作がちゃんとMiraBotにも伝わって、シーンの“間”や“ノリ”を自分で作れる感覚。これ、シンプルに楽しい。

まだ実験中。でも、この方向は“アリ”だと思う

もちろん、まだ粗いところはあります(ラグ、マッピングのクセなど)。
ただ、触って→すぐ返ってくる“手触り”は十分に手応えアリ。
この仕掛けを MiraPlay に入れるかは、もう少し煮込みながら判断します。

おまけ:単軸スクリプト → 多軸化の実験も進行中

もうひとつ、単軸のFunscriptを多軸に“拡張”する手勢機能も開発中。
多軸ロボの“スクリプト不足”をちょっと楽にできるかもしれません。
こちらも進展があれば、軽めに共有します。

お買い物カゴ

お問い合わせ

ご質問・ご相談は以下のフォームよりお気軽にお問い合わせください。営業時間外の場合は、翌営業日にご返信いたします。