小言_互联网的博客

【李宏毅机器学习2022】Task07 总结

357人阅读  评论(0)

【李宏毅机器学习2021】本系列是针对datawhale《李宏毅机器学习-2022 10月》的学习笔记。本次对本期学习进行总结~

目录

学习情况总览

学习心得

不足和改进

课程展望

对本节课的建议


学习情况总览

课程题目及连接 学习内容简介 学习时间
Task01 机器学习介绍 通过学习视频了解到李老师对机器学习课程的整体安排,介绍了每个章节的侧重点,从回归开始,由有监督到半监督,无监督。以及后续的mata learning。整体介绍目前深度学习的学习大纲。讲解中也穿插了有多有趣的例子,容易接受同时也充满乐趣。 2022/10/10-2022/10/11
Task02 回归

本节通过视频学习到回归任务的提出,三个要素,及如何优化。李老师通过层层递进,提出问题解决问题的方式不断打磨方法,从中介绍回归任务的始末,引出深度学习及网络加深伴随的过拟合问题。 2022/10/11-2022/10/13
Task03 误差和梯度下降 本次是对误差和梯度下降的学习总结。本节通过视频学习到对模型调优中面临的系列问题,李宏毅老师列出常见问题树状图,从train的loss开始,到test loss问题,引出训练中的问题并讲解原因,介绍改进方法。

2022/10/13-

2022/10/15

Task04 深度学习介绍和反向传播机制 本次是对深度学习介绍和反向传播机制的学习总结。本节针对上节课内容,对batch、梯度下降方法进行讲解。通过本次学习加深了对optimization方法的理解,同时明白对深度学习的优化方向和解决办法。

2022/10/15-

2022/10/17

Task05 网络设计的技巧 本次是对深度学习中卷积神经网络的总结。本节课主要讲解卷积神经网络中的感受野、滤波器、下采样的重要组成部分。网络设计技巧在之前内容已经介绍过,本次就打卡卷积神经网络啦。

2022/10/17-

2022/10/20

Task06 self-attention算法 本次是对深度学习中self-attention算法的学习总结。本来这节课是讲cnn,上节课cnn学过了笔记也做过了,就快进到self-attention吧~本节课主要讲解NLP中self-attention算法的生成原理,针对序列向量的预测思路及优势特点。同时在基本的self-attention介绍相关升级算法。最后对self-attention在声音信息、cv、图数据中的引用。

2022/10/20-

2022/10/23

Task07 总结 对整体学习的总结。

2022/10/23-

2022/10/24

学习心得

       通过本期学习了解到深度学习的基础知识,从神经网络的起源相关推导到网络搭建,优化。一步步引导学习深度学习知识框架。通过每次打卡巩固学习知识。本次课程中也有很多新知识,学的东西很新很实用。感谢datawhale提供平台,又一次刷新学习记录~

不足和改进

        本次学习中对视频内容进行学习并做相关笔记,但缺乏对知识的拓展学习。学习面局限在视频中,后面会结合花书拓展知识面。在学习过程中时间安排不合理,总是压哨打卡~哈哈哈  一定要改掉deadline是生产力的毛病呢。还有就是学习中不自助写试验代码,= =没有躬身行动。后面会补上实验的学习。

学习展望

        本次打卡虽然是dw学习的最后一节打卡,但是我对李宏毅老师机器学习这门课的学习步伐还没有停歇。将以两日一更的速度冲后面的学习内容啦。

小队情况

        本次在datawhale的学习活动中担任小队的队长,本次学习小队初始有10人,最后坚持下来8人。为坚持下来的小伙伴鼓掌~~

        作为队长坚持监督每个小伙伴对学习任务学习并打卡。不过作为队长也有改进的地方,对于学习较为困难的同学应该提前提醒学习,并谈心了解学习情况。也应积极询问队员的学习进度,及时对不懂得地方讲解,让每个小伙伴有信心冲下去。写在这里敦促自己,后面当队长要把这些都做到。

对本节课的建议

        本节课在人工智能整体知识来说是重要基础,相关学习内容概念复杂。建议开始代码课程辅助学习效果更佳,毕竟talk is cheap ,show me your code.李老师这门课有配作业的,可以放进去就最好啦~

        好啦~总结就到这,撒花~

        感谢datawhale和爱学习的队每个小伙伴~


转载:https://blog.csdn.net/QAQterrible/article/details/127479786
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场