Questのコントローラーを虫かごとか何かしらの実物体につけて、MRで連動して何か表示するみたいな作品好きなので作ってみる
ぬいぐるみ系がいい
全然アイデア思いつかなかったので安直に吹き出しでしゃべらせる

作る
WebXRでも作れそうだけど、せっかくなのでUnityにする。
一番新しいアルファ版の6000.5のUnityのMRテンプレートでやろうとしたえけど、全然わからん。サンプルシーンビルドしたら、たぶん片目しか描画されていないVR空間が出て、何かを押したらMRになるけど、その空間でもなにしたらいいかわからん

あきらめて、まえひな人形MR作ったプロジェクトで実装する。
今ChatGPT契約しているので、codexなるものを使ってみた。VSCodeにcodexプラグインしてログインして、指示出したら一応コード編集してくれる

でも頻繁にArrow押さないといけなくてめんどい。Allow this sessionにしているのに毎回聞いてくる。

Canvasでふきだしつくってコントローラーの下に置いた

左右のコントローラーそれぞれをぬいぐるみにつけて、私と2匹のぬいぐるみの距離でいろいろセリフ出させてみる。あとエフェクトも

調整めんどくさくて途中で飽きちゃった。
できたもの
近い時

ぬいぐるみ同士が近づいた時


持ち上げた時


二人とも高い時

うまく調整できないけど目が合った時用のセリフ

その状況じゃなくなったらセリフ出ないようにしたい・・・


あとぬいぐるみにどうやって取り付けるのかとか、向きの調整とかちゃんとやろうとしたら色々大変そう
おまけ
Horizon OS MCPなるものがあるらしい
Horizon OSのMCP、こっちから指示しないと使ってくれないのかな?と思ってたら違った。
— カフェマス@XR×VTuber (@CafeSingularity) 2025年12月18日
とりあえず繋いでおくだけで、AIが必要だと判断したときに勝手にMCPから関連情報を引っ張ってくるわ。
Quest開発者は全員入れた方がいい。 https://t.co/GoYTsVVEay
MQDHの設定から入れれる
Add to VS Codeを押す。1回目はAdd to VS Code押してもなんも起きなかったけど、別の日に押したら反応した

なんか入った。

ただ使い方わからなくて使ってない。もうほぼ作り終わっちゃったし