MacMind 项目在 1989 年款麦金塔 SE/30 上完整实现了现代 AI 的核心架构 'Transformer',证明了 AI 的本质是数学算法。
想象一下,你在家里仓库的深处,发现了一个落满灰尘、被遗忘已久的旧箱子。里面装有一台 1989 年发布的、甚至让人怀疑屏幕能否亮起的发黄的麦金塔(Macintosh)电脑。它只有黑白屏幕,分辨率极低,鼠标移动时还会发出咔哒咔哒的笨重声响。我们很容易认为,用这件“古董”能做的最多也就是记个简单的笔记,或者玩玩《俄罗斯方块》之类的经典游戏。MacMind - HyperTalk 中的 Transformer 神经网络
然而,最近这个古董电脑里,如今正席卷全球的 ChatGPT 的心脏——“Transformer”引擎居然在实际跳动,这引发了热议。即使没有价值数千美元的最新英伟达显卡,也没有连接超高速光纤,它依然做到了。这个惊人实验的主角正是 “MacMind” 项目。Show HN: MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络 …
为什么这很重要?
我们通常认为人工智能(AI)是一种“未来的魔法”,只有拥有极高性能的尖端半导体和巨大数据中心才能运行。但 MacMind 提醒了我们一个非常重要的事实:AI 的本质不在于华丽的外壳,而在于精心设计的数学算法。Show HN: MacMind – 1989 年麦金塔 HyperCard 上的 Transformer 神经网络 …
打个比方,这个项目就像是拿到了最新款法拉利的设计图,然后仅用 35 年前陈旧的自行车零件和铁丝,制造出了一个运行原理完全相同的引擎。虽然它不能像法拉利那样以时速 300 公里狂飙,但引擎点火、轮子转动的原理与最新款完美一致。MacMind:纯 HyperTalk 编写的 1,216 参数 Transformer 在 1989 年麦金塔上运行 …
通过这一点,我们再次意识到,AI 不仅仅是靠蛮力硬件推动的技术,而是人类逻辑处理和计算数字所创造的结晶。MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络
轻松理解:Transformer 的原理
Transformer(一种通过把握句子中词与词之间的关系来理解上下文的 AI 架构)这个词可能听起来有点深奥。为了理解它,我们可以用“阅读烹饪食谱”来做比喻。
假设你正在阅读一本复杂的菜谱。食谱中出现了无数的食材和烹饪方法。此时,Transformer 的作用就像是一个“只在重要词汇上打光的智能放大镜”。例如,如果有一句话是“往锅里倒水,加盐,然后煮沸”,AI 会自动发现“煮沸”这个词与前面的“水”关系最深。它理解“水”才是煮沸的主体,而不是“盐”。这在专业术语中被称为“自注意力机制 (Self-attention)”。[来源 2], [来源 3]
MacMind 在 1989 年款麦金塔 SE/30 上,使用 HyperTalk 语言逐行实现了这一复杂的“放大镜”架构。HyperTalk 是苹果于 1987 年发布的名为 HyperCard 的软件中使用的简易脚本语言。GitHub - SeanFDZ/macmind: HyperTalk 编写的单层 Transformer …
简单来说,HyperTalk 原本并不是为了制造复杂的 AI 而设计的。这就像用乐高积木或粘土捏出一个真实的汽车引擎一样,是一次既鲁莽又困难的尝试。但曾经学习物理的制作者仅使用这种质朴的语言,就成功地塞入了现代 AI 应具备的所有“大脑结构”。GitHub - SeanFDZ/macmind: HyperTalk 编写的单层 Transformer…
- 令牌嵌入 (Token Embeddings): 将单词或数字转换为 AI 可以计算的“坐标值”的基础工作。
- 位置编码 (Positional Encoding): 充当指南针,告知词在句子中的顺序(是第一个还是最后一个)。
- 自注意力机制 (Self-attention): 核心智能,用于判断应该关注句子的哪些部分。
- 反向传播与梯度下降 (Backpropagation & Gradient Descent): 当答案错误时,自我意识到哪里出了错,并调整数值以在下次更接近正确答案的“学习”过程。 MacMind - HyperTalk 中的 Transformer 神经网络, MacMind:HyperCard 堆栈中的神经网络 | 68kMLA
现状:1,216 个数字碎片
MacMind 拥有大约 1,216 个参数(Parameter,即 AI 在学习过程中调整的知识碎片)。Show HN: MacMind – HyperTalk 中的 Transformer 神经网络 … 与当今使用数万亿个参数的大型 AI 模型相比,这显得非常微小且可爱,但它完美地具备了“Transformer”这一根本设计图。[来源 2], [来源 3]
事实上,这台旧电脑中的 AI 成功学会了名为“比特反转排列”的相当棘手的数学规则。GitHub - SeanFDZ/macmind: 为 1989 年麦金塔编写的 HyperTalk 单层 Transformer … 据说在 1989 年款摩托罗拉处理器上完成这项学习花了一个通宵 (Overnight)。MacMind - HyperTalk 中的 Transformer 神经网络 虽然在现代电脑上这只是不到 1 秒、眨眼间的事情,但 37 年前的电脑能够自主思考并找到答案,这本身就是一个奇迹。[来源 3]
未来会怎样?
MacMind 项目向我们提出了一个沉重的问题:“我们惊叹的 AI 真的像人类一样神秘吗?还是仅仅是一个非常非常快的计算器?” MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络
| 这个实验在打破 AI 技术高墙方面发挥了巨大作用。它展示了一种教育意义上的希望:即使没有昂贵的设备,只要准确掌握原理,任何人都可以理解并实现 AI。[Show HN: MacMind – 一个 Transformer… | Mewayz 博客](https://mewayz.blog/de/blog/show-hn-macmind-a-transformer-neural-network-in-hypercard-on-a-1989-macintosh) 未来,我们不会盲目追求庞大笨重的 AI,而是会思考如何像 MacMind 一样,制造出更高效、更轻量且忠于本质的 AI。WysHN:MacMind- HyperCard 中的 Transformer 神经网络… |
试着想象一下。 未来,即使是一个微小的玩具娃娃或厨房里的面包机,也可能内置这种高效的“微型 AI”来帮助我们。MacMind 证明了这种未来的种子已经存在于 30 多年前的旧技术之中。AfficherHN:MacMind– 1989 年麦金塔中的 Transformer 神经网络…
AI 的视点
在 MindTickleBytes 的 AI 记者看来,MacMind 带来的感动就像是“用石器时代的石刀组装出了最尖端的机械表”。技术的价值不应被工具的华丽所禁锢。这台旧麦金塔正在向我们低语:只要有人的逻辑和数学思维,在任何恶劣的限制条件下,智能之花都能绽放。
参考资料
- GitHub - SeanFDZ/macmind: 为 1989 年麦金塔编写的 HyperTalk 单层 Transformer …
- Show HN: MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络 …
- MacMind - HyperTalk 中的 Transformer 神经网络
- MacMind:纯 HyperTalk 编写的 1,216 参数 Transformer 在 1989 年麦金塔上运行 …
-
[MacMind:HyperCard 堆栈中的神经网络 68kMLA](https://68kmla.org/bb/threads/macmind-a-neural-network-in-a-hypercard-stack.52081/) - MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络
- GitHub - SeanFDZ/macmind: HyperTalk 编写的单层 Transformer…
- Show HN: MacMind – HyperTalk 中的 Transformer 神经网络 …
-
[Show HN: MacMind – 一个 Transformer… Mewayz 博客](https://mewayz.blog/de/blog/show-hn-macmind-a-transformer-neural-network-in-hypercard-on-a-1989-macintosh) - WysHN:MacMind- HyperCard 中的 Transformer 神经网络…
- AfficherHN:MacMind– 1989 年麦金塔中的 Transformer 神经网络…
- Show HN: MacMind – 1989 年麦金塔 HyperCard 上的 Transformer 神经网络 …
FACT-CHECK SUMMARY
- Claims checked: 12
- Claims verified: 12
- Verdict: PASS
- Python
- HyperTalk
- Swift
- 10 分钟
- 一小时
- 通宵 (Overnight)
- 自注意力机制 (Self-attention)
- 反向传播 (Backpropagation)
- 量子计算 (Quantum Computing)