おたくま経済新聞

ネットでの話題を中心に、商品レビューや独自コラム、取材記事など幅広く配信中!

Miraiへの投資

update:
Z Venture Capital株式会社
オンデバイスAIインフラの新標準を築くMiraiへの投資



[画像: https://prcdn.freetls.fastly.net/release_image/41941/110/41941-110-a1a21da1f325b7fa2e9367e83dc91b36-1280x720.jpg?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]


by Hyung Kim

The article in English follows the Japanese version.

(日本語)

Miraiに投資する理由

Miraiは、これまで市場に欠けていた「オンデバイス推論のインフラストラクチャレイヤー」を構築しています。オンデバイス推論のインフラストラクチャレイヤーとは、スマホやPC上でAIモデルを高速・効率的に動かすための実行基盤および最適化レイヤーです。そして今ほど、その重要性が高まっているタイミングはありません。

私がMiraiの起業家に初めて出会ったのは、彼らがPrisma(AIによる写真加工アプリ)やReface(AIによるフェイススワップ)を手がけていた頃でした。印象的だったのは、優れたプロダクトセンスだけではありません。スケールする内部インフラを自ら構築し、運用まで見据えて形にしてしまう、技術的な完成度の高さでした。そして今、二人は再びタッグを組み、より根源的な課題に挑んでいます。それが「高性能なオンデバイス推論」です。

AIはもはや目新しい存在ではなく、「あって当たり前」のものへと変わりました。音声アシスタント、リアルタイム翻訳、コード補完、各種コパイロット機能――こうした体験が広がる中で、「すべての推論はクラウドで行う」という前提は崩れ始めています。レイテンシーの許容範囲はより厳しくなり、同時にプライバシーへの期待も高まっています。さらに、推論コストはもはや無視できない水準になりました。

だからこそ、私たちはMiraiに投資します。

MiraiはApple Silicon向けのオンデバイスAI推論インフラを構築し、開発者が最新のモデルをローカル環境で、本番品質のパフォーマンスで実行できるようにします。社内ベンチマークでは、特定のモデルとデバイスの組み合わせにおいて、MLXと比較して生成速度が37%向上し、プリフィル速度が最大59%高速化するという成果を示しています。オンデバイスでの性能向上は、単なる「わずかな改善」ではありません。多くの場合、それは「即時に使える体験」と「使い物にならない体験」の差を生み出します。

転換点はどこにどこにあるのか

現在、消費者向けデバイスにはAI専用の計算基盤が標準搭載されつつあります。特にApple Siliconでは、ハードウェアはすでに十分に整っています。しかし、ソフトウェアスタックはまだ追いついていません。オンデバイス推論は、単なるモデル実行の問題ではなく、「システム全体の最適化問題」です。チップごとの違い、モデルアーキテクチャの差異、デバイス世代、メモリ制約――これらが複雑に絡み合います。「1つのランタイムですべて対応する」というアプローチは、すぐに限界に達します。Miraiのミッションは、オンデバイス推論をクラウドAPIと同じくらい手軽にすることにあります。

経済的な合理性

AIワークロードが継続的なものへと進化する中で、音声、コード補完、リアルタイムアシスタンスなどのクラウドコストは積み上がり続けます。規模が拡大すればするほど、そのコストはプロダクトの成長を直接制約します。
適切なワークロードをデバイス側へ移すことで、1推論あたりのコストを大幅に削減できるだけでなく、レイテンシーの改善、信頼性の向上、プライバシーの強化、さらにはオフライン対応も可能になります。未来は「すべてクラウド」でも「すべてオンデバイス」でもなく、ハイブリッド型になると考えています。しかし、インタラクティブでリアルタイム性が求められるユースケースにおいては、オンデバイスが想定以上に大きな割合を占めるようになるでしょう。Miraiはその移行を現実的なものにします。

プラットフォームシフト

これは単なる技術革新ではなく、プラットフォーム構造の変化であると考えています。これまで、開発者の可能性はOSベンダーの進化速度に依存してきました。しかし、オンデバイスAIの進展により、開発者はOSのアップデートを待つことなく、ローカルに高度な知能を組み込むことが可能になります。その結果、OSの上に新たなインフラレイヤーが形成される余地が生まれます。Miraiは、その次世代レイヤーの中核となる可能性を秘めています。

なぜ今、なぜMiraiなのか

インフラへの投資はタイミングが重要です。AIチップがあらゆるデバイスに搭載されるようになり、課題(コスト、レイテンシー、信頼性)は明確になりました。そして需要は急速に拡大しています。Miraiはその交差点に立っています。
起業家たちは、すでに大規模なコンシューマーAIプロダクトを構築し、スケールさせてきた実績を持ちます。そして今度は、次の時代を支えるインフラレイヤーに、その情熱と実行力を注いでいます。
私たちは、ローカルで、瞬時に、そして手頃なコストで動作するAI――その「AIネイティブ」な体験を定義するMiraiを支援できることを、大変嬉しく思います。

【Miraiについて】

・X(Twitter) : @trymirai
・LinkedIn : Mirai Tech Inc.
・起業家 : Dima Shvets (X: @dmitrshvets, Linkedin), Alexey Moiseenkov (X: @Darkolorin , Linkedin)
・ウェブサイト : trymirai.com
・メディア掲載 :
https://trymirai.com/blog/mirai-raises-10m-to-build-the-on-device-ai-capability-layer
https://techcrunch.com/2026/02/19/co-founders-behind-reface-and-prisma-join-hands-to-improve-on-device-model-inference-with-mirai/

(EN)

Why we invested in Mirai

Mirai is building the on-device inference infrastructure layer the market has been missing-and its timing couldn’t be more critical. I first met Alexey and Dima when they were building Prisma and Reface. What stood out wasn’t just product instinct, but deep technical rigor: they built internal infrastructure that scaled. Now they’ve reunited to tackle something foundational-high-performance on-device inference.

AI has shifted from novelty to expectation. As voice assistants, real-time translation, code completion, and copilots proliferate, the assumption that all inference belongs in the cloud is breaking. Latency budgets are tighter. Privacy expectations are higher. And inference costs are no longer negligible-they’re material.

That’s why we invested in Mirai Tech.

Mirai builds on-device AI inference infrastructure for Apple Silicon, enabling developers to run modern models locally with production-grade performance. In internal benchmarks, Mirai delivers a 37% increase in generation speed and up to 59% faster prefill versus MLX on certain model-device pairings. On-device performance isn’t a marginal gain-it’s often the difference between instant and unusable.

The Inflection Point

Specialized AI compute is now standard in consumer devices. The hardware is ready-especially on Apple Silicon-but the software stack lags behind.

On-device inference is a systems problem. Performance varies across chips, model architectures, device generations, and memory constraints. The “one runtime fits all” approach breaks down quickly. Mirai’s mission is to make on-device inference as accessible as cloud APIs-without requiring every team to master low-level optimization.

The Economics

As AI workloads become continuous-voice, code completion, real-time assistance-cloud costs compound. At scale, they directly constrain product ambition.

Shifting the right workloads to the device dramatically lowers per-inference costs while improving latency, reliability, privacy, and offline capability. The future isn’t purely cloud or purely on-device-it’s hybrid. But on-device will take a much larger share of interactive, real-time use cases than most expect. Mirai makes that shift practical.

The Platform Shift

This is also a power shift in the stack. For years, OS vendors dictated the pace of developer capability. On-device models change that dynamic. Developers can ship intelligence locally without waiting for OS primitives.

That creates space for new infrastructure layers above the OS-runtimes that evolve faster than iOS or Android release cycles. Mirai’s long-term vision aligns with that opportunity.

Why Now, Why Mirai

Infrastructure timing matters. The substrate is ready (AI chips everywhere), the pain is real (cost, latency, reliability), and demand is rising.

Mirai sits at that intersection, led by founders who’ve already built and scaled consumer AI products-and are now applying that intensity to the infrastructure layer the next era will depend on.

We’re excited to back Mirai as they help define what “AI-native” feels like when intelligence runs locally, instantly, and affordably.

【About Mirai】

・X(Twitter) : @trymirai
・LinkedIn : Mirai Tech Inc.
・Founders : Dima Shvets (X: @dmitrshvets, Linkedin), Alexey Moiseenkov (X: @Darkolorin , Linkedin)
・Website : trymirai.com
・Media coverage :
https://trymirai.com/blog/mirai-raises-10m-to-build-the-on-device-ai-capability-layer
https://techcrunch.com/2026/02/19/co-founders-behind-reface-and-prisma-join-hands-to-improve-on-device-model-inference-with-mirai/

最近の企業リリース

トピックス

  1. インターネットの最深部を疑似体験できるダークウェブ体験シミュレーター「Welcome to Underground」

    ダークウェブを疑似体験できるサイト登場 「Welcome to Underground」に背筋ひんやり

    数々のホラーコンテンツを手掛けてきた「株式会社闇」。同社のAIプロジェクト「YAMI AI」が、イン…
  2. 火も包丁も使わない ヒガシマル公式「丸ごとソーセージの炊き込みご飯」が背徳的なおいしさ

    火も包丁も使わない ヒガシマル公式「丸ごとソーセージの炊き込みご飯」が背徳的なおいしさ

    ヒガシマル醤油のロングセラー商品「うどんスープ」。うどんだけでなく様々な料理に使える万能調味料として…
  3. 「遊☆戯☆王」公式、ホワイトハウス投稿動画に声明 無許諾使用を指摘

    「遊☆戯☆王」公式、ホワイトハウス投稿動画に声明 無許諾使用を指摘

    米政権のホワイトハウス公式Xアカウント「@WhiteHouse」が3月6日に投稿した動画をめぐり、ア…

編集部おすすめ

  1. 静岡県アニメモデル地マップ

    静岡県、アニメモデル地マップを配布 4作品17か所を掲載

    静岡県は、県内各地を舞台とするアニメのモデル地をまとめた「静岡県アニメモデル地マップ」を作成し、3月10日より県内各所で配布しています。対象…
  2. 「貴姫さまの憂鬱~あやかし探偵事件簿~」キービジュアル

    いのまたむつみキャラ原案、氷栗優作画「貴姫さまの憂鬱」連載へ 楊貴妃が現代京都で“あやかし探偵”

    Gakkenは、Webサイト「コミックノーラ」にて新作コミック「貴姫さまの憂鬱~あやかし探偵事件簿~」の連載を、3月26日10時から開始する…
  3. 「ウルトラエッグカツ丼」は税込979円(券売機店舗は税込980円)

    かつや「ウルトラエッグカツ」登場 「こういうのでいいんだよ」なおかずを全部のせ

    とんかつ専門店「かつや」が、期間限定メニュー「ウルトラエッグカツ定食」と「ウルトラエッグカツ丼」を、3月13日から販売すると発表しました。ロ…
  4. 「涼宮ハルヒの憂鬱」再放送 2006年と同じエピソード順で全14話

    「涼宮ハルヒの憂鬱」再放送 2006年と同じエピソード順で全14話

    テレビアニメ「涼宮ハルヒの憂鬱」が、放送開始20周年を記念して再放送されることが3月9日に発表されました。TOKYO MXとBS11での放送…
  5. 自衛官の足の悩みから生まれた「自衛隊向け靴下」 反響を受けラインナップ拡充

    自衛官の足の悩みから生まれた「自衛隊向け靴下」 反響を受けラインナップ拡充

    陸上自衛隊員の足トラブルを前提に設計された、タクティカルソックス「IMPACT LOCK FORCE」に、新サイズ27~29cmと総丈19c…
Xバナー facebookバナー ネット詐欺特集バナー

提携メディア

Yahoo!JAPAN ミクシィ エキサイトニュース ニフティニュース infoseekニュース ライブドア LINEニュース ニコニコニュース Googleニュース スマートニュース グノシー ニュースパス dメニューニュース Apple ポッドキャスト Amazon アレクサ Amazon Music spotify・ポッドキャスト
支援