人工智能学习路线&学习资料整理

人工智能学习资料(个人整理)

脑上头写出来的,误点到发布了,有问题后面再补充修改
里面的内容大部分是我学习过了的,基本上都是非常优秀的很好理解(我缺的数学基础这块你上哪补啊【悲】)

内容已经整理至github,附带代码实例

先导

开始之前,让我们先看几个demo和视频

【纪录片】阿尔法狗【双语特效字幕】
https://www.bilibili.com/video/BV1pE411y7Pu/?spm_id_from=333.337.search-card.all.click&vd_source=d5f2b87dc23c8806dfc6d9550f24aaf2


路线

书籍资源—理论概念—项目实践——思考记录——拓展


学习路径

python基础——人工智能导论——数据分析&数据处理——机器学习——sklearn实战——深度学习——pytorch——强化学习

还有其余的可以根据自己的研究方向进一步深入学习;
其中所涉及的有

Python 基础
语法、数据结构、函数、类
Vscode、Anaconda、Jupyter、Numpy、Pandas、Matplotlib

人工智能导论
历史简述:图灵测试、达特茅斯会议、符号主义 vs 连接主义
AI 分类:分类问题、预测问题、策略问题
基础算法:逻辑回归、线性回归、梯度下降

数据分析 & 数据处理
数据标准化、归一化
矩阵运算、特征提取、特征选择
超参数设置与调优

机器学习基础(sklearn 实战)
训练集、验证集、测试集
拟合、过拟合、欠拟合
评估指标:准确率、召回率、F1 分数
损失函数:均方误差、交叉熵损失

深度学习(PyTorch)
神经网络基础:输入层、隐藏层、输出层、权重、偏置、学习率
神经元、激活函数(Sigmoid、ReLU、Softmax)
前向传播、反向传播、梯度下降
优化器:SGD、Adam

深度学习进阶
CNN 卷积神经网络
RNN / LSTM / GRU:序列建模
Transerformer 架构的原理及实现(注意力机制,编码器,解码器,BERT/GPT)
实战:手写数字识别(MNIST)、初学者优先先拿完整的预训练项目直接训练来理解、房价预测、自主构建、SimpleCNN、SimpleRNN、MiniChat

强化学习入门
环境、状态、动作、奖励
Q-learning、DQN、策略梯度

以及算法计算过程和项目代码实战其中都有所包含


资料

python基础(这个就不补充了,B站找找全是)

机器学习

深度学习(视频内容可以根据顺序进行观看,也可以根据学习进度和需要跳着看)

(老师讲解的很好[赞] | 偏理论)

(sklearn——深度学习库,包含了很多深度学习项目,直接上手,加深理解 | 偏实战)

(深度学习库pytorch,也有深度学习的内容涉及,torch的常用深度学习架构 等 | 偏实战)

(搭配动手学深度学习书籍食用 | 偏实战)

(关于Transformer的理论框架解读,加深理解 | 过程推导)

强化学习

(这个挺好的,理论加实践,入门够用了,看完了可以做自己的项目 | 偏代码实现)

相关资源

相关教程平台


拓展

拓展:Ollama、Ollama Factory、Yolov5、GPT-SoVITS、Stable Diffusion、魔塔社区(https://www.modelscope.cn/)、Huggenface(https://huggingface.co/)、OpenWebUI(https://docs.openwebui.com/)、小智机器人 & MCP的实现 等等

之后可以根据自己的兴趣做一些感兴趣的东西
我举几个例子:
Ollama Factory微调后部署到群QQai助手(可以调成任何你想要的效果 小春警觉)
结合小智AI&MCP实现的语音交互控制的无人机
与开放世界游戏相结合实现虚拟人物对话(进阶的化通过MCP实现自主任务系统)
类J.A.R.V.I.S. 助手的虚拟人物效果(需要结合MCP协议以及控制终端的功能,我做过类似的:https://github.com/toke648/AI-Interactive-LLM-VTuber)
通过将神经网络模型的芯片连接到小鼠大脑,然后基于小鼠大脑的电信号数据进行直接的模糊性训练(研究脑神经和意识之间的关系)

拓展项目资料

语言模型本地部署 + WebUI(你甚至可以部署到服务器上开接口)

模型微调 + 部署

语音合成(GPT-SoVITS)

图像识别(Yolov5)
【非常优秀的教程视频,入门是绝对够了】

图像生成(NovelAI、Stable Diff)

【什么叫赛博佛祖啊【喜】】

这之类的还有很多,总之现在的AI日新月异,高级的理论知识我也不太搞得懂,但我依旧想要提出自己的观点——生成式认知主体


结语:

【人工智能】大语言模型不会带来AGI | 图灵奖得主Yann LeCun最新访谈 | LLM的局限性 | 缺乏物理世界理解 | 推理缺陷 | V-JEPA | OpenAI | 过度炒作 | 开源优势
https://www.youtube.com/watch?v=NmCPbqlLjzo

个人研究方向

生成式认知主体:探索 AI 如何通过交互逐步形成“我”的概念,研究感知、行动、时间性在人工智能中的涌现机制。

放点有趣的杂项

【自推】

【本人计算机入坑之作[赞]】


参考资料

posted @ 2025-09-17 10:54  tokepson  阅读(44)  评论(0)    收藏  举报