カリフォルニア州サンタクララ, 2026年4月28日 - (JCN Newswire) - CEOジム・ケラー(Jim Keller)率いるAIコンピューティング企業Tenstorrentは本日、Tenstorrent Galaxy Blackholeの大規模展開における一般提供(GA)開始を発表しました。これにより、業界最高水準の汎用AI性能を実現します。他社ソリューションでは、断片化されたインフラ上で複数のアクセラレーターを組み合わせる必要がありますが、TenstorrentのNetworked AIは、コンピュート、メモリ、ネットワークを単一システムにネイティブ統合し、実環境のAIワークロードに最適化された形で提供します。
業界最高水準の性能を手頃な価格で
汎用とは、特定のワークロードに特化するのではなく、現代のAIを定義するすべてのワークロードにおいて最高水準の性能を発揮することを意味します。Tenstorrent Galaxyは、動画生成、長コンテキストのLLM推論(プリフィルおよびデコードの両方)、および現在提供されているあらゆるモデルアーキテクチャにおいて優れた性能を発揮します。
Tenstorrentのローンチイベント「TT-Deploy」は、太平洋時間5月1日(金)午後1時30分より開催されます。ライブストリーム:https://tenstorrent.com/deploy ぜひご自身でご確認ください。
リアルタイムかつ高品質なAI動画生成を10倍高速化
Tenstorrent Galaxy上でのAI動画生成は、主要GPUシステムと比較して10倍高速化されています。Prodiaとの協業により、業界最速の動画生成はTenstorrent Galaxyスーパークラスター上でさらに10倍高速化され、720p・81フレームの動画をわずか2.4秒で生成します。Tenstorrent Galaxyスーパークラスター上で、最先端の動画モデルを実行し、高品質な動画をより高速に生成できます。
「私たちはすでにArtificial Analysisリーダーボードでトップに立っていましたが、Tenstorrentとの協業により動画生成速度をさらに10倍向上させることができました。インテグレーションはシームレスで、性能向上は即座に得られました。」と、Prodia Labs共同創業者のミハイル・アヴァディ(Mikhail Avady)とモンティ・アンダーソン(Monty Anderson)氏は述べています。
Blitzモード:最速かつ最大コンテキストのLLM推論
Tenstorrent Galaxy上のBlitzモードは、レイテンシに敏感な高付加価値AIワークロード向けに最適化されており、DeepSeek-R1-0528 671Bにおいて350+トークン/秒/ユーザーおよび4秒未満のTime-to-First-Token(初回トークン生成時間)を実現し、同等の主要GPUシステムを上回ります。Tenstorrent Galaxyスーパークラスターは、エージェント型ワークフロー、リアルタイムシステム、長コンテキスト推論などの高付加価値AIユースケースを実行します。
Tenstorrent Galaxy 性能ベンチマーク
・デコード:DeepSeek-R1-0528 671Bで最大350+トークン/秒/ユーザー — GroqおよびCerebrasの最速推論システムを性能・容量の両面で上回り、バッチサイズ8〜64、最大128kコンテキストをサポート
・プリフィル:DeepSeek-R1-0528 671Bにおいて100Kコンテキストで4秒未満のTime-to-First-Token — 同一の汎用AI Tenstorrent Galaxyスーパークラスター上で稼働
本番環境対応のフルスタックAI
Tenstorrentは、ハードウェアからソフトウェア、デプロイメントに至るまで完全なAIソリューションを提供します。Tenstorrent Galaxyは、TT-Forge™およびTT-Langを通じてオープンソースフレームワークと統合され、迅速なモデル立ち上げを支援します。これにより、顧客はベンダーロックインや独自スタックに依存することなく本番AIシステムを展開できます。HuggingFaceのモデルの90%はTenstorrentハードウェア上でそのまま動作します。
Networked AI
これらの成果は、従来とは異なる設計思想に基づくアーキテクチャによって実現されています。多くのAIアクセラレーターはコンピュートを主な設計課題としますが、Tenstorrentはまずデータ配置とデータフローを解決することで、スケーリングによる性能向上を可能にしました。
「業界の企業は次々と“アクセラレーターの上にさらにアクセラレーターを重ねる”アプローチを取っています。CPUがコードを実行し、GPUがCPUを高速化し、TPUがGPUを高速化し、LPUがTPUを高速化する。このような構造は複雑化し、AIモデルや用途の変化に適応しにくくなります。Tenstorrentでは、より汎用的でシンプルなアプローチが有効だと考えました。」と、CEOジム・ケラーは述べています。
その結果がNetworked AIです。これは、コンピュート、メモリ、ネットワークを単一システムに統合し、実環境のAIワークロードに最適化した新しいAIインフラモデルです。効率的なデータ配置とデータフロー、高帯域幅オンチップメモリ、イーサネットベースのスケールアウトにより、単一のソフトウェアモデルのもとで1コアから数千台のサーバーまで拡張可能です。専用インターコネクトや再構成、モデルの進化に伴い競合システムを脆弱にするような固定的なワークロード定義は不要です。
導入事例
Tenstorrent Galaxyスーパークラスターは、EquinixのDistributed AI Hub™(エージェント型ワークロード向けフルスタックAIオーケストレーションプラットフォーム)の新たな基盤の一つであり、本日、パートナーであるBetterBrainおよびOrionVMとともに提供開始されます。EquinixのDistributed AI Hubは、顧客およびパートナーがインフラからアプリケーションまで全レイヤーをカバーすることを支援し、既存のエンタープライズシステムにも接続可能で、ソブリンなエージェント型AIシステムの展開・運用を可能にします。
・Equinix:コロケーションおよびインターコネクトサービスを提供するグローバルなデジタルインフラ企業。エンタープライズおよびパートナーが、ユーザー、クラウド、データの近接環境で、AIをはじめとするミッションクリティカルなワークロードを安全かつ効率的に展開・スケールできるよう支援
・OrionVM:TenstorrentベースのAIサービスにおけるオーケストレーションおよびインフラ層を担う次世代ヘテロジニアスクラウドプラットフォーム
・BetterBrain:Tenstorrentインフラ上で、安全かつカスタマイズ可能な本番対応AIアプリケーションおよびエージェント型ワークフローを提供する、フルスタックAIプラットフォーム兼デプロイメントパートナー
「Tenstorrentは、AIワークロードの実行方法を根本から見直すことで、当社のDistributed AI Hubに多大な価値をもたらしています。オンチップにおけるプリフィル/デコード間のデータフロー最適化から、AIスタック全体のオーケストレーションに至るまでをカバーしています。このレベルのアーキテクチャに関する知見により、企業はインフラの複雑性の管理ではなく、差別化された製品の構築に集中し続けることが可能になります」と、テクノロジーパートナーエコシステム担当ディレクターのジャスタン・アギロン(Justen Aguillon)は述べています。
「私たちは、フロンティアモデルとオープンソースモデルの両方を実行できる柔軟性と、エージェント型システムをグローバルにスケールするために必要なテレメトリーおよびガバナンスを備えた、高性能かつコスト効率の高い新しいAIファクトリーを実現しています。」
その他の導入事例
・Virtu Financial:ティア1のマーケットメーカー。Tenstorrentと連携し、トレーディングおよび業務オートメーション向けのオンプレミス・エージェント型AIソリューションを通じて、実環境のAIシステムを実現
・Turiyam:インド発・グローバル展開の次世代半導体およびAIインフラ企業。データセンター規模の推論チップ、ソフトウェア、システムを構築
・Cirrascale:エージェント型アプリケーションおよび生成AI向けクラウドサービスを提供するトップクラスのネオクラウド。米国および複数の海外地域で提供
メディアお問い合わせ先
Justin Mauldin
Salient PR
achievemore@salientpr.com
737.234.0936
配信元企業:Tenstorrent
リリース配信代行:
JCN 株式会社
Tel: 03-5791-1821
Email: info@japancorp.net