【新智元導讀】馬斯克最近哭窮表示,xAI需要部署10萬個H100才能訓出Grok3,影響全球的大模型算力荒怎么解?昨天開源的這款MoE大模型,只用了1/19算力、1/19激活參數(shù),性能就直接全面對標Llama3-70B!如今,想訓個SOTA的大模型,不僅缺數(shù)據(jù)和算力,甚至連電都不夠用了。最近馬斯克就
......
本文由站長之家合作伙伴自媒體作者“新智元公眾號”授權發(fā)布于站長之家平臺,本平臺僅提供信息索引服務。由于內容發(fā)布時間超過平臺更新維護時間,為了保證文章信息的及時性,內容觀點的準確性,平臺將不提供完全的內容展現(xiàn),本頁面內容僅為平臺搜索索引使用。需閱讀完整內容的用戶,請查看原文,獲取內容詳情。
(舉報)