メインコンテンツへスキップ
Screenshot2026 01 23at3 36 57PM

インフラ要件

Service CategoryService TypeDescriptionQuantity
ComputeKubernetes Service - System Node Pool (Masters)4 vCPUs, 16 GB RAM, Linux3
ComputeKubernetes Service User Node Pool (workers)16 vCPUs, 128 GB RAM, Linux4 - 6
StoragePersistent StoreProvisioned SSD (Premium), 3,500 IOPS, 150 MiB/sec throughput1 TB
GPU (Hosted LLM)H100 / H200 family160 – 320 GB vRAM as per the concurrency requirements. 256GB RAM. 8 Core. 1 TB Storage3 - 4
External LLMsAPI / URLNo need of hardwareMin - 2
注:**上記のインフラは、API経由で外部LLMを使う500人の同時ユーザー向け(例:ChatGPT/Claude)です。 ホストGPUの同時進行度は50〜60です注:**インフラポリシーごとに必要な追加コンポーネント(例:ファイアウォール、ロードバランサー)* 注:容量は使用負荷に応じて増加する可能性があります

責任マトリックス

#任務Turintonクライアント/パートナー
1プラットフォーム展開責任者
2プラットフォームトレーニング支援責任者
3プラットフォームの更新責任者
4POCユースケースの構築責任者支援
5オントロジー/コンテキストグラフの開発責任者責任者
6ログ記録と観測可能性の設定責任者責任者
7新しいLLMモデル展開(vLLM使用)責任者責任者
8新しいユースケースの構築と配布(POC後)支援責任者
9インフラストラクチャプロビジョニング支援責任者
10ハードウェア要件責任者
11データアクセス責任者
12インフラを監視する責任者
13セキュリティおよびコンプライアンス管理責任者
14災害復旧/バックアップ戦略責任者