Personal Learning Journal · AI & Machine Learning

我的 AI 学习记录

记录每一次认知跃迁,追踪从零到能的完整轨迹

127
学习小时
38
完成项目
6
在修主题
14
笔记篇数
当前学习主题
基础理论
神经网络原理
前向传播、反向传播与梯度下降的数学直觉
实践工程
Transformer 架构
自注意力机制与位置编码,读懂 Attention is All You Need
前沿探索
大语言模型应用
提示工程、RAG 系统与 AI Agent 编排
工具实战
PyTorch 动手实践
张量操作、自动微分与模型训练全流程
理论深化
强化学习基础
马尔可夫决策过程、Q-learning 与策略梯度
伦理思考
AI 安全与对齐
RLHF、Constitutional AI 与模型对齐研究进展
学习时间线
2025
12月
完成 CS231n 卷积神经网络课程
系统学完斯坦福视觉识别课程,手写反向传播代码,理解了 BatchNorm 的作用机制
CNN计算机视觉NumPy
2026
01月
精读 Attention is All You Need 论文
逐行推导注意力公式,用 PyTorch 实现了一个 mini Transformer 并在字符级语言模型上验证
TransformerNLP论文精读
2026
02月
构建第一个 RAG 问答系统
基于 LangChain + FAISS 搭建了本地文档检索增强生成系统,接入本地 Ollama 模型
RAG向量数据库LangChain
2026
03月
开始研究 AI Agent 与 MCP 协议
阅读 ReAct、Tool-use 相关论文,实验了多种 Agent 框架,理解了工具调用的设计逻辑
AI AgentMCP工具调用
理解一个模型,不是背会它的架构图,而是能在脑海里感受到数据流过时发生了什么。
— 学习笔记 #007,2026.01
参考资源
📘
Deep Learning (Goodfellow)
教材 · 进度 60%
🎓
fast.ai Practical DL
课程 · 已完成
📄
Anthropic 技术报告
论文 · 持续追踪
⚙️
Andrej Karpathy 系列
视频 · 进度 80%
本季目标
完整实现一个 Transformer 语言模型,并在小数据集上训练至收敛
搭建并部署个人 RAG 知识库系统
读完强化学习教材前六章,理解 PPO 算法原理
参与一次 Kaggle AI 竞赛,完成完整建模流程
精读三篇 AI Safety 核心论文并写下读书笔记