AI训练 标签,匹配到约3个结果, 耗时0.1285秒

大模型“记性差一点”反而更聪明:金鱼损失随机剔除 token,让 AI 不再死记硬背

大语言模型如果不加约束,很容易把训练数据原封不动地复刻出来。为解决这个问题,来自马里兰大学、图宾根大学和马普所的研究团队提出了一个新方法 —— 金鱼损失(Goldfish Loss)。...
2025-09-04
·
浏览54次

散户组团挑战算力霸权,40B 模型 + 20 万亿 token 刷新世界纪录

全球网友用闲置显卡组团训练大模型。40B 大模型、20 万亿 token,创下了互联网上最大规模的预训练新纪录!去中心化 AI 的反攻,正式开始。OpenAI 等巨头的算力霸权,这次真要凉了?...
2025-05-26
·
浏览188次

Nature 曝惊人内幕:论文被天价卖出喂 AI,作者 0 收入

Nature 的一篇文章透露:你发过的 paper,很可能已经被拿去训练模型了!有的出版商靠卖数据,已经狂赚 2300 万美元。然而辛辛苦苦码论文的作者们,却拿不到一分钱,这合...
2024-08-15
·
浏览493次
上一页
·
下一页
· 当前第1页