応答せよ1989!35年前の骨董品マッキントッシュはChatGPTのように思考できるか?AIの本質を呼び覚ます「MacMind」プロジェクト

1989年製のクラシック・マッキントッシュの画面に、現代的なAIトランスフォーマー構造の図解がピクセルアートで描かれた様子
AI Summary

1989年製のMacintosh SE/30で、現代AIの核心である「Transformer」構造をそのまま実装したMacMindプロジェクトが公開され、AIの本質が数学的アルゴリズムであることを証明しました。

家の倉庫の奥深く、埃をかぶって忘れ去られていた古い箱を見つけたと想像してみてください。その中には1989年に発売され、今や画面さえまともに映るか怪しい、色あせたマッキントッシュ・コンピュータが入っています。白黒画面で解像度も低く、マウスはカチカチと音を立てながら無骨に動きます。この「骨董品」でできることといえば、せいぜい簡単なメモを残したり、「テトリス」のようなレトロゲームを楽しんだりすることくらいだと考えがちです。MacMind - HyperTalkによるトランスフォーマー・ニューラルネットワーク

しかし最近、この骨董品コンピュータの中で、今日世界を揺るがしているChatGPTの心臓部、すなわち「トランスフォーマー(Transformer)」エンジンが実際に鼓動していることが明らかになり、話題となっています。数万円もする最新のNVIDIAグラフィックカードがなくても、超高速光回線が繋がっていなくても、です。この驚くべき実験の主役こそが「MacMind」プロジェクトです。Show HN: MacMind - 1989年のMacintosh上のHyperCardにおけるトランスフォーマー・ニューラルネットワーク …

なぜこれが重要なのでしょうか?

私たちはよく、人工知能(AI)を凄まじい性能を持つ最先端の半導体と、巨大なデータセンターがあって初めて動く「未来の魔法」のような存在だと思いがちです。しかし、MacMindは私たちに非常に重要な真実を教えてくれます。AIの本質は華やかな外装ではなく、結局のところ精巧に設計された数学的アルゴリズムであるという点です。Show HN: HyperCardにおけるMacMind – トランスフォーマー・ニューラルネットワーク …

例えるなら、このプロジェクトは最新型フェラーリの設計図を手に入れ、35年前の古い自転車の部品と針金だけを使って、同じように作動するエンジンを作り上げたようなものです。たとえフェラーリのように時速300kmで走ることはできなくても、エンジンが爆発し、車輪が回る原理は最新型と全く同じだということです。MacMind: 1,216パラメータのトランスフォーマーが純粋なHyperTalkで1989年のMacintosh上で動作 …

これを通じて私たちは、AIが単に凄まじいハードウェアの力で押し切る技術ではなく、数値を計算し処理する人間の論理が生み出した結晶であるという事実に改めて気づかされます。MacMind - 1989年のMacintosh上のHyperCardにおけるトランスフォーマー・ニューラルネットワーク

簡単に理解する:トランスフォーマーの原理

トランスフォーマー(Transformer:文章中の単語間の関係を把握して文脈を理解するAI構造)という言葉は、少し難しく感じるかもしれません。これを理解するために、「料理のレシピを読むこと」に例えてみましょう。

あなたが複雑な料理本を読んでいると仮定しましょう。レシピには数多くの材料と調理法が登場します。この時、トランスフォーマーはあたかも「重要な単語だけに光を当てる賢いルーペ」のような役割を果たします。例えば「鍋に水を注ぎ、塩を入れた後、勢いよく沸騰させてください」という文章があれば、AIは「沸騰させる」という言葉が、前に出てきた「水」と最も深い関係があることを自ら見つけ出します。「塩」よりも「水」が沸騰する主体であることを理解するのです。これを専門用語で「自己注意(Self-attention)」と呼びます。[Source 2], [Source 3]

MacMindはこの複雑な「ルーペ」構造を、1989年製のMacintosh SE/30で動作するHyperTalk(ハイパートーク)という言語で一行一行実装しました。HyperTalkは1987年にアップルがリリースしたHyperCardというソフトウェアで使用されていた、一種の簡易スクリプティング言語です。GitHub - SeanFDZ/macmind: HyperTalkによるシングルレイヤー・トランスフォーマー…

簡単に言えば、HyperTalkはもともと複雑な人工知能を作るために作られた道具ではありません。あたかもレゴブロックや粘土で本物の自動車エンジンを形作るのと同じくらい、無謀で困難な試みでした。しかし、元物理学徒であった制作者は、この質素な言語だけを使用して、現代AIが備えるべきすべての「脳構造」を組み込むことに成功しました。GitHub - SeanFDZ/macmind: HyperTalkにおけるシングルレイヤー・トランスフォーマー…

  1. トークン埋め込み(Token Embeddings): 単語や数値をAIが計算できる「座標値」に変換する基礎作業です。
  2. 位置エンコーディング(Positional Encoding): 文章内での単語の順序(最初なのか、最後なのか)を教えるコンパスの役割を果たします。
  3. 自己注意(Self-attention): 文章のどの部分に集中すべきか自ら判断する核心的な知能です。
  4. 逆伝播および勾配降下法(Backpropagation & Gradient Descent): 正解を間違えた時に何が間違っていたのかを自ら悟り、次は正解に近づくように数値を調整する「学習」プロセスです。 MacMind - HyperTalkによるトランスフォーマー・ニューラルネットワーク, MacMind: HyperCardスタック内のニューラルネットワーク | 68kMLA

現在の状況:1,216個の数字の断片

MacMindは約1,216個のパラメータ(Parameter:AIが学習しながら調整する知識の断片)を持っています。Show HN: HyperTalkにおけるMacMind – トランスフォーマー・ニューラルネットワーク … 最近の巨大AIモデルが数兆個のパラメータを使用していることに比べれば、非常に小さくて可愛らしいレベルですが、「トランスフォーマー」という根本的な設計図は完璧に備えています。[Source 2], [Source 3]

実際に、この古いコンピュータの中のAIは「ビット反転順列」という、かなり厄介な数学的規則を学習することに成功しました。GitHub - SeanFDZ/macmind: HyperTalkによるシングルレイヤー・トランスフォーマー… 1989年製のモトローラ・プロセッサ上でこの学習を完了させるには、丸一晩(Overnight)かかったそうです。MacMind - HyperTalkによるトランスフォーマー・ニューラルネットワーク 最新のコンピュータなら瞬きする間もない1秒もかからないことですが、37年前のコンピュータが自ら思考し、正解を見つけ出したこと自体が、一つの驚異的な出来事です。[Source 3]

今後どうなるでしょうか?

MacMindプロジェクトは、私たちに一つの重い問いを投げかけます。「私たちが驚異の目で見つめるAIは、本当に人間のような神秘的な存在なのか、それとも単に非常に高速な計算機に過ぎないのか?」MacMind - 1989年のMacintosh上のHyperCardにおけるトランスフォーマー・ニューラルネットワーク

この実験は、AI技術の高い障壁を打ち破る上で大きな役割を果たします。数千万円の機材がなくても、原理さえ正確に理解すれば、誰でもAIを理解し実装できるという教育的な希望を示しています。[Show HN: MacMind – トランスフォーマー… Mewayz Blog](https://mewayz.blog/de/blog/show-hn-macmind-a-transformer-neural-network-in-hypercard-on-a-1989-macintosh) これからの私たちは、闇雲に巨大で重いAIばかりを追うのではなく、MacMindのようにより効率的で軽量でありながら、本質に忠実なAIを作る方法を模索することになるでしょう。Show HN: MacMind - HyperCardにおけるトランスフォーマー・ニューラルネットワーク…

想像してみてください。 将来的には、非常に小さな人形やキッチンのトースター一つにも、このような効率的な「ミニAI」が搭載され、私たちを助けてくれるようになるでしょう。MacMindは、そのような未来がすでに30年以上前の古い技術の中にも、種として存在していたことを証明しています。AfficherHN: MacMind – トランスフォーマー・ニューラルネットワーク …

AIの視点

MindTickleBytesのAI記者の目には、MacMindはまるで「石器時代の石包丁で最先端の機械式時計を組み立てた」かのような感動を与えます。技術の価値は、道具の華やかさに縛られません。人間の論理と数学的思考があれば、いかに劣悪な制約条件下であっても、知能の花を咲かせることができるのだと、この古いマッキントッシュが私たちに囁いています。

参考資料

  1. GitHub - SeanFDZ/macmind: HyperTalkによるシングルレイヤー・トランスフォーマー…
  2. Show HN: MacMind - 1989年のMacintosh上のHyperCardにおけるトランスフォーマー・ニューラルネットワーク …
  3. MacMind - HyperTalkによるトランスフォーマー・ニューラルネットワーク
  4. MacMind: 1,216パラメータのトランスフォーマーが純粋なHyperTalkで1989年のMacintosh上で動作 …
  5. [MacMind: HyperCardスタック内のニューラルネットワーク 68kMLA](https://68kmla.org/bb/threads/macmind-a-neural-network-in-a-hypercard-stack.52081/)
  6. MacMind - 1989年のMacintosh上のHyperCardにおけるトランスフォーマー・ニューラルネットワーク
  7. GitHub - SeanFDZ/macmind: HyperTalkにおけるシングルレイヤー・トランスフォーマー…
  8. Show HN: HyperTalkにおけるMacMind – トランスフォーマー・ニューラルネットワーク …
  9. [Show HN: MacMind – トランスフォーマー… Mewayz Blog](https://mewayz.blog/de/blog/show-hn-macmind-a-transformer-neural-network-in-hypercard-on-a-1989-macintosh)
  10. Show HN: MacMind - HyperCardにおけるトランスフォーマー・ニューラルネットワーク…
  11. AfficherHN: MacMind – トランスフォーマー・ニューラルネットワーク …
  12. Show HN: HyperCardにおけるMacMind – トランスフォーマー・ニューラルネットワーク …

FACT-CHECK SUMMARY

  • Claims checked: 12
  • Claims verified: 12
  • Verdict: PASS
この記事の理解度チェック
Q1. MacMindが実装された1987年当時のスクリプティング言語の名前は何ですか?
  • Python
  • HyperTalk
  • Swift
MacMindは1987年にアップルがリリースしたHyperCard(ハイパーカード)のスクリプティング言語であるHyperTalk(ハイパートーク)で作成されました。
Q2. MacMindを学習させるのに、1989年のハードウェア基準でどれくらいの時間がかかりましたか?
  • 10分
  • 1時間
  • 一晩中(Overnight)
当時のハードウェアであるMacintosh SE/30でモデルを学習させるには、丸一晩かかりました。
Q3. MacMindに含まれている現代AIの核心的な構成要素ではないものは?
  • 自己注意(Self-attention)
  • 逆伝播(Backpropagation)
  • 量子演算(Quantum Computing)
MacMindは現代AIの核心である自己注意、逆伝播、勾配降下法などをすべて含んでいますが、量子演算とは関係ありません。