欢迎来到 Yoyo_Lee 的博客。这里会记录 AI / 研究进展,以及日常随笔。
为什么开这个博客
研究笔记散落在 Obsidian、Notion、GitHub Gist 四处,想做一个统一的公开记录点。Hexo + Butterfly 是目前对中文写作最友好的组合之一:写作用 Markdown,部署走 GitHub Pages,零服务器成本。
功能点验证
行内公式与块公式
爱因斯坦质能方程:
交叉熵损失:
注意力机制的 Scaled Dot-Product:
代码块(高亮 + 行号 + 复制按钮)
import torch
import torch.nn.functional as F
def scaled_dot_product_attention(q, k, v, mask=None):
d_k = q.size(-1)
scores = torch.matmul(q, k.transpose(-2, -1)) / (d_k ** 0.5)
if mask is not None:
scores = scores.masked_fill(mask == 0, -1e9)
attn = F.softmax(scores, dim=-1)
return torch.matmul(attn, v), attn
引用与列表
研究的本质是提出更好的问题,而不是找更好的答案。
计划要写的系列:
- LLM 训练栈(数据、tokenizer、attention、RLHF)
- 多智能体强化学习笔记
- 论文阅读精选
写在开头
这个博客会两条腿走路:
🧪 研究:严肃的技术记录,可公式、可代码、可数据
🌿 生活:阅读、观影、散步路上的随手记
希望都能长期坚持下来。