• 登录/注册

登录失败,用户名或者密码错误


登录

首页  > 快讯

突破算力限制 Meta开源“记忆层”,重塑Transformer架构大模型

1年前
【突破算力限制 Meta开源“记忆层”,重塑Transformer架构大模型】 扎克伯格旗下Meta Platforms分享了一个创新研究——Memory layers(记忆层)。目前,Transformer架构的预训练大模型在存储、查询数据时,随着参数的变大对算力的需求呈指数级增长。“记忆层”提出了新的高效查询机制替代了传统的查询方法,通过比较查询键与两个较小集合中的键,可以快速找到最相关的键,而无需遍历模型的整个记忆层。这也就是说,可以在不增加算力的情况下显著增加大模型的参数。例如,研究人员在仅有1.3亿参数的模型中添加了128亿额外的记忆参数,其性能与Meta开源的Llama 2- 70相当,而算力却比它低了10倍左右。

最新快讯搜索

中国 欣旺达 A股 降息 新能源 汽车 稀土 涨停 悟空 资产重组 deepseek 特朗普 中信建投 半导体 比特币 中信证券 st 新能源汽车 AI 上证指数 腾讯控股 上交所 存量房贷 蔚来 阿里 大选 动力电池 哪吒汽车 蜀道装备 理想汽车 中国平安 OpenAI 宁德时代 越南 投票 房贷 孚能科技 贵州茅台 三连板 茅台 泸州老窖 以旧换新 贝莱德 智能驾驶 江淮汽车 电池回收 美国大选 黑神话:悟空 AI模型公司 北汽蓝谷 小红书 曲江文旅 中芯国际 寻呼机 股票交易异常波动 广交会 黑神话 白马股 弹匣电池 存量房贷下调 3000点 破净 瑞幸咖啡 茅台酒价 三元电池 AI出海 今日收评 破净发 绝地求生 存量房贷利率 连板股 四连板 无人潜水器 润和软件