AI模型成功在43年前的Commodore64电脑上运行
IT之家 5 月 4 日消息,在人工智能领域,各大阵营都在竞相让自己的大语言模型(LLM)能够在尽可能弱、尽可能便宜的硬件上运行。硬件性能越弱,运行大语言模型所需的功耗就越低。然而,有没有想过让一个 AI 模型在 1982 年推出的硬件上运行呢?
这正是 Maciej Witkowiak 在其新项目“Llama2.c64”中所尝试的,据IT之家了解,该项目的目标是让一个简单的 AI 在 Commodore 64 上运行。
Witkowiak 对该项目的描述如下:
Llama2.c64 是由 Maciej“YTM / Elysium”Witkowiak 使用 oscar64 移植到 Commodore 64 的,需要至少配备 2MB 扩展内存单元(REU)的 Commodore 64 才能运行。
该项目运行的是一个 260KB 的 tinystories 模型,将 Llama2 的功能带到了独特的 C64 硬件环境中。
需要注意的是,这并不是一个聊天模型。想象一下给一个 3 岁的孩子讲一个故事的开头,他们会尽其词汇量和能力把故事讲下去。
从上图中可以看到 Llama2.c64 生成的故事示例,确实像是一个孩子在讲故事时胡言乱语,但考虑到 AI 所依赖的硬件条件如此有限,以及它在故事中所展现的延续性,对于一台已经 43 岁的电脑来说,已经是非常令人惊叹的成就了。
(来源:新浪科技)