(同時通訳付)Building a Strategic Foundation for Generative AI
, R&D本部 LLM Foundation dev部 LLMコア構築チーム リーダー, SB Intuitions株式会社
, 超並列計算基盤チーム リーダー, SB Intuitions株式会社
, VP, DGX Systems, NVIDIA
イノベーションの加速、業務効率の向上、新たな収益源の開拓など、2024 年の企業はジェネレーティブAIをビジネス戦略の要に据えようとしている。この変革的なシフトは、規模に応じたAIの開発と導入の運用化という課題をもたらします。本セッションでは、AI トレーニングの効率化、大規模なコンピュート・クラスタ管理、データ・サイエンス・チームと開発者チームへのシームレスなアクセスの提供、エンド・ユーザー規模でのモデルのデプロイを支援する最新のインフラストラクチャー・イノベーションを探ります。NVIDIA のチャーリー・ボイルがAIインフラストラクチャの最新動向を掘り下げ、日本の AI リーダーが実際に導入した事例について語ります。
Whether it's to accelerate innovation, enhance operational efficiency, or unlock new revenue streams, enterprises in 2024 are making generative AI a cornerstone of their business strategies. This transformative shift brings with it the challenge of operationalizing AI development and deployment at scale. In this session, we’ll explore the latest infrastructure innovations that help ensure efficiency of AI training, large-scale compute cluster management, providing seamless access to data science and developer teams, and deploying models at end-user scale. Join NVIDIA's Charlie Boyle as he delves into the latest trends on AI infrastructure and discusses real-world deployments from some of Japan’s AI leaders.