Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.24.2·
页面加载耗时 0.00 毫秒·物理内存 71.8MB ·虚拟内存 1303.1MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
5 月 4 日消息,在人工智能领域,各大阵营都在竞相让自己的大语言模型(LLM)能够在尽可能弱、尽可能便宜的硬件上运行。硬件性能越弱,运行大语言模型所需的功耗就越低。然而,有没有想过让一个 AI 模型在 1982 年推出的硬件上运行呢?
这正是 Maciej Witkowiak 在其新项目“Llama2.c64”中所尝试的,据了解,该项目的目标是让一个简单的 AI 在 Commodore 64 上运行。
Witkowiak 对该项目的描述如下:
Llama2.c64 是由 Maciej“YTM / Elysium”Witkowiak 使用 oscar64 移植到 Commodore 64 的,需要至少配备 2MB 扩展内存单元(REU)的 Commodore 64 才能运行。
该项目运行的是一个 260KB 的 tinystories 模型,将 Llama2 的功能带到了独特的 C64 硬件环境中。
需要注意的是,这并不是一个聊天模型。想象一下给一个 3 岁的孩子讲一个故事的开头,他们会尽其词汇量和能力把故事讲下去。
从上图中可以看到 Llama2.c64 生成的故事示例,确实像是一个孩子在讲故事时胡言乱语,但考虑到 AI 所依赖的硬件条件如此有限,以及它在故事中所展现的延续性,对于一台已经 43 岁的电脑来说,已经是非常令人惊叹的成就了。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。