请回答 1989!35 年前的“古董”麦金塔能像 ChatGPT 一样思考吗?揭示 AI 本质的 'MacMind' 项目

简体中文
1989 年款经典麦金塔屏幕上以像素艺术呈现的现代 AI Transformer 架构示意图
AI Summary

MacMind 项目在 1989 年款麦金塔 SE/30 上完整实现了现代 AI 的核心架构 'Transformer',证明了 AI 的本质是数学算法。

想象一下,你在家里仓库的深处,发现了一个落满灰尘、被遗忘已久的旧箱子。里面装有一台 1989 年发布的、甚至让人怀疑屏幕能否亮起的发黄的麦金塔(Macintosh)电脑。它只有黑白屏幕,分辨率极低,鼠标移动时还会发出咔哒咔哒的笨重声响。我们很容易认为,用这件“古董”能做的最多也就是记个简单的笔记,或者玩玩《俄罗斯方块》之类的经典游戏。MacMind - HyperTalk 中的 Transformer 神经网络

然而,最近这个古董电脑里,如今正席卷全球的 ChatGPT 的心脏——“Transformer”引擎居然在实际跳动,这引发了热议。即使没有价值数千美元的最新英伟达显卡,也没有连接超高速光纤,它依然做到了。这个惊人实验的主角正是 “MacMind” 项目。Show HN: MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络 …

为什么这很重要?

我们通常认为人工智能(AI)是一种“未来的魔法”,只有拥有极高性能的尖端半导体和巨大数据中心才能运行。但 MacMind 提醒了我们一个非常重要的事实:AI 的本质不在于华丽的外壳,而在于精心设计的数学算法Show HN: MacMind – 1989 年麦金塔 HyperCard 上的 Transformer 神经网络 …

打个比方,这个项目就像是拿到了最新款法拉利的设计图,然后仅用 35 年前陈旧的自行车零件和铁丝,制造出了一个运行原理完全相同的引擎。虽然它不能像法拉利那样以时速 300 公里狂飙,但引擎点火、轮子转动的原理与最新款完美一致。MacMind:纯 HyperTalk 编写的 1,216 参数 Transformer 在 1989 年麦金塔上运行 …

通过这一点,我们再次意识到,AI 不仅仅是靠蛮力硬件推动的技术,而是人类逻辑处理和计算数字所创造的结晶。MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络

轻松理解:Transformer 的原理

Transformer(一种通过把握句子中词与词之间的关系来理解上下文的 AI 架构)这个词可能听起来有点深奥。为了理解它,我们可以用“阅读烹饪食谱”来做比喻。

假设你正在阅读一本复杂的菜谱。食谱中出现了无数的食材和烹饪方法。此时,Transformer 的作用就像是一个“只在重要词汇上打光的智能放大镜”。例如,如果有一句话是“往锅里倒水,加盐,然后煮沸”,AI 会自动发现“煮沸”这个词与前面的“水”关系最深。它理解“水”才是煮沸的主体,而不是“盐”。这在专业术语中被称为“自注意力机制 (Self-attention)”。[来源 2], [来源 3]

MacMind 在 1989 年款麦金塔 SE/30 上,使用 HyperTalk 语言逐行实现了这一复杂的“放大镜”架构。HyperTalk 是苹果于 1987 年发布的名为 HyperCard 的软件中使用的简易脚本语言。GitHub - SeanFDZ/macmind: HyperTalk 编写的单层 Transformer …

简单来说,HyperTalk 原本并不是为了制造复杂的 AI 而设计的。这就像用乐高积木或粘土捏出一个真实的汽车引擎一样,是一次既鲁莽又困难的尝试。但曾经学习物理的制作者仅使用这种质朴的语言,就成功地塞入了现代 AI 应具备的所有“大脑结构”。GitHub - SeanFDZ/macmind: HyperTalk 编写的单层 Transformer…

  1. 令牌嵌入 (Token Embeddings): 将单词或数字转换为 AI 可以计算的“坐标值”的基础工作。
  2. 位置编码 (Positional Encoding): 充当指南针,告知词在句子中的顺序(是第一个还是最后一个)。
  3. 自注意力机制 (Self-attention): 核心智能,用于判断应该关注句子的哪些部分。
  4. 反向传播与梯度下降 (Backpropagation & Gradient Descent): 当答案错误时,自我意识到哪里出了错,并调整数值以在下次更接近正确答案的“学习”过程。 MacMind - HyperTalk 中的 Transformer 神经网络, MacMind:HyperCard 堆栈中的神经网络 | 68kMLA

现状:1,216 个数字碎片

MacMind 拥有大约 1,216 个参数(Parameter,即 AI 在学习过程中调整的知识碎片)。Show HN: MacMind – HyperTalk 中的 Transformer 神经网络 … 与当今使用数万亿个参数的大型 AI 模型相比,这显得非常微小且可爱,但它完美地具备了“Transformer”这一根本设计图。[来源 2], [来源 3]

事实上,这台旧电脑中的 AI 成功学会了名为“比特反转排列”的相当棘手的数学规则。GitHub - SeanFDZ/macmind: 为 1989 年麦金塔编写的 HyperTalk 单层 Transformer … 据说在 1989 年款摩托罗拉处理器上完成这项学习花了一个通宵 (Overnight)。MacMind - HyperTalk 中的 Transformer 神经网络 虽然在现代电脑上这只是不到 1 秒、眨眼间的事情,但 37 年前的电脑能够自主思考并找到答案,这本身就是一个奇迹。[来源 3]

未来会怎样?

MacMind 项目向我们提出了一个沉重的问题:“我们惊叹的 AI 真的像人类一样神秘吗?还是仅仅是一个非常非常快的计算器?” MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络

这个实验在打破 AI 技术高墙方面发挥了巨大作用。它展示了一种教育意义上的希望:即使没有昂贵的设备,只要准确掌握原理,任何人都可以理解并实现 AI。[Show HN: MacMind – 一个 Transformer… Mewayz 博客](https://mewayz.blog/de/blog/show-hn-macmind-a-transformer-neural-network-in-hypercard-on-a-1989-macintosh) 未来,我们不会盲目追求庞大笨重的 AI,而是会思考如何像 MacMind 一样,制造出更高效、更轻量且忠于本质的 AI。WysHN:MacMind- HyperCard 中的 Transformer 神经网络…

试着想象一下。 未来,即使是一个微小的玩具娃娃或厨房里的面包机,也可能内置这种高效的“微型 AI”来帮助我们。MacMind 证明了这种未来的种子已经存在于 30 多年前的旧技术之中。AfficherHN:MacMind– 1989 年麦金塔中的 Transformer 神经网络…

AI 的视点

在 MindTickleBytes 的 AI 记者看来,MacMind 带来的感动就像是“用石器时代的石刀组装出了最尖端的机械表”。技术的价值不应被工具的华丽所禁锢。这台旧麦金塔正在向我们低语:只要有人的逻辑和数学思维,在任何恶劣的限制条件下,智能之花都能绽放。

参考资料

  1. GitHub - SeanFDZ/macmind: 为 1989 年麦金塔编写的 HyperTalk 单层 Transformer …
  2. Show HN: MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络 …
  3. MacMind - HyperTalk 中的 Transformer 神经网络
  4. MacMind:纯 HyperTalk 编写的 1,216 参数 Transformer 在 1989 年麦金塔上运行 …
  5. [MacMind:HyperCard 堆栈中的神经网络 68kMLA](https://68kmla.org/bb/threads/macmind-a-neural-network-in-a-hypercard-stack.52081/)
  6. MacMind - 1989 年麦金塔 HyperCard 上的 Transformer 神经网络
  7. GitHub - SeanFDZ/macmind: HyperTalk 编写的单层 Transformer…
  8. Show HN: MacMind – HyperTalk 中的 Transformer 神经网络 …
  9. [Show HN: MacMind – 一个 Transformer… Mewayz 博客](https://mewayz.blog/de/blog/show-hn-macmind-a-transformer-neural-network-in-hypercard-on-a-1989-macintosh)
  10. WysHN:MacMind- HyperCard 中的 Transformer 神经网络…
  11. AfficherHN:MacMind– 1989 年麦金塔中的 Transformer 神经网络…
  12. Show HN: MacMind – 1989 年麦金塔 HyperCard 上的 Transformer 神经网络 …

FACT-CHECK SUMMARY

  • Claims checked: 12
  • Claims verified: 12
  • Verdict: PASS
测试你的理解
Q1. 实现 MacMind 的 1987 年脚本语言名称是什么?
  • Python
  • HyperTalk
  • Swift
MacMind 是使用苹果于 1987 年发布的 HyperCard 的脚本语言 HyperTalk 编写的。
Q2. 以 1989 年的硬件为标准,训练 MacMind 需要多长时间?
  • 10 分钟
  • 一小时
  • 通宵 (Overnight)
在当时的硬件麦金塔 SE/30 上训练该模型整整花了一个晚上。
Q3. 以下哪项不是 MacMind 中包含的现代 AI 核心组件?
  • 自注意力机制 (Self-attention)
  • 反向传播 (Backpropagation)
  • 量子计算 (Quantum Computing)
MacMind 包含了现代 AI 的核心组件,如自注意力机制、反向传播和梯度下降,但与量子计算无关。