Llama3.1

8月02

  • 贾扬清:大模型尺寸正在重走CNN的老路;马斯克:在特斯拉也是这样

    14:20 作者:编辑

    声明:本文来自微信公众号“量子位”,作者:关注前沿科技 Transformer大模型尺寸变化,正在重走CNN的老路! 看到大家都被LLaMA3.1吸引了注意力,贾扬清发出如此感慨。 拿大模型尺寸的发展,和CNN的发展作对比,就能发现一个明显的趋势和现象: 在ImageNet时代,研究人员和技术从业者见证了参数规模的快速增长,然后又开始转向更小、更高效的模型。 听起来,是不是和GPT哐哐往上卷模型参…原文连接

    贾扬清:大模型尺寸正在重走CNN的老路;马斯克:在特斯拉也是这样

    Ai
    分享到

8月01

  • GPU训Llama 3.1疯狂崩溃,竟有大厂用CPU服务器跑千亿参数大模型?

    13:53 作者:编辑

    声明:本文来自于微信公众号 新智元,作者:新智元 马斯克19天建成由10万块H100串联的世界最大超算,已全力投入Grok3的训练中。 与此同时,外媒爆料称,OpenAI和微软联手打造的下一个超算集群,将由10万块GB200组成。 在这场AI争霸赛中,各大科技公司们卯足劲加大对GPU的投资,似乎在暗示着拥有更多、更强大的GPU,就能让自己立于不败之地。 然而,这种对高端GPU的狂热追求,并非在所有…原文连接

    GPU训Llama 3.1疯狂崩溃,竟有大厂用CPU服务器跑千亿参数大模型?

    Ai
    分享到

购物车
优惠劵
搜索