MacMindはHyperCardの中でtransformerを見える大きさにした

Original: Show HN: MacMind – A transformer neural network in HyperCard on a 1989 Macintosh View original →

Read in other languages: 한국어English
LLM Apr 18, 2026 By Insights AI (HN) 1 min read Source

MacMindがHNで注目されたのは、transformerを中身まで見える大きさにしたからだ。このprojectはAppleのHyperCardを支えたscripting languageであるHyperTalkだけで、1,216-parameter、single-layer、single-head transformerを実装している。作者はMacintosh SE/30でtrainingしたと説明しており、modelの各部分はHyperCardのscript editorで読める。

taskは意図的に小さい。Fast Fourier Transformの最初に使われるbit-reversal permutationを学ぶことだ。MacMindはformulaを教えられない。random examplesを受け取り、embeddings、positional encoding、scaled dot-product self-attention、cross-entropy loss、backpropagation、stochastic gradient descentを通じてpositional patternを学ぶ。repositoryにはpre-trained stack、training用のblank stack、mathを検証するPython/NumPy reference implementationも置かれている。

communityの熱は、この対比から来た。AIの話題はたいてい、より大きなclusters、より長いcontext windows、より高価なinferenceへ向かう。MacMindは逆方向へ行く。modern scaleが巨大でも、core training loop自体はmagicではないと示す。HNでは、old hardwareが概念を見える位置に押し出すという見方があった。1,216 parametersしかないなら、attention mapsやweight updatesはinfrastructureの裏に隠れた抽象ではなく、読める対象になる。

もちろん、MacMindはtiny LLMではない。language systemではなく、structured permutation problemのためのteaching demoだ。価値は、動くtransformerを手元で触れる距離に置くことにある。HyperCardでprogrammingを覚えた人には、1987年のscripting environmentが今日のmodel boomの基本機構を載せているというnostalgiaもある。

AI literacyにも効く。vintage Macで開き、変更し、保存し、もう一度開いてinspectできるなら、“attention”はbranding wordではなくoperationsの集まりになる。HNがこのprojectを単なるretro stunt以上として見た理由はそこにある。

Sources: HN discussion, MacMind repository.

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.