英伟达3 月27 日公布H200 的性能测评结果,用Meta 的大规模语言模型(LLM)“Llama 2” 进行比较: 与H100 相比,H200 使生成式AI 导出答案的处理速度最高提高 45%。
该厂商在之前的开发者会议上曾表示,年内将推出新一代AI 半导体“B200”,这是比H200 更新的GPU。B200 和 CPU 组合的新产品用于最新的LLM 上,处理能力将达到现有产品的约30 倍。可以看到,在AI 半导体领域,AMD 等竞争对手在开发对抗英伟达的产品,竞争越来越激烈。
……
关注读览天下微信,
100万篇深度好文,
等你来看……