摘要: 在第5次AI TIME PhD Debate上,笔者邀请了部分国内外语义解析领域的杰出华人学者共话语义解析的过去,现状和未来。本博客为笔者根据视频讨论总结的干货整理。 阅读全文
posted @ 2021-10-18 13:40 SivilTaram 阅读(5062) 评论(0) 推荐(3) 编辑
摘要: pytorch 为了节省显存,在反向传播的过程中只针对计算图中的叶子结点(leaf variable)保留了梯度值(gradient)。但对于开发者来说,有时我们希望探测某些中间变量(intermediate variable) 的梯度来验证我们的实现是否有误,这个过程就需要用到 tensor的 接 阅读全文
posted @ 2019-09-17 15:19 SivilTaram 阅读(13471) 评论(0) 推荐(1) 编辑
摘要: 作业概况 | 条目 | 备注 | |: :|: :| | 作业链接 | "【ASE高级软件工程】热身作业!" | | 提交人数 | 19 | | 未完成人数 | 2 | | 满分 | 10分 | 作业情况总结 本次作业作为大家软工课程的第一次作业,完成度相当不错(尤其是在国外暑研/赶论文的同学也在尽 阅读全文
posted @ 2019-09-16 00:50 SivilTaram 阅读(1135) 评论(0) 推荐(1) 编辑
摘要: 本文简要介绍了做图分类等图上任务时,该如何从结点表示得到图的表示。 阅读全文
posted @ 2019-09-07 17:43 SivilTaram 阅读(32355) 评论(22) 推荐(4) 编辑
摘要: 在本篇中,我们将着大量笔墨介绍图卷积神经网络中的卷积操作。接下来,我们将首先介绍一下图卷积神经网络的大概框架,借此说明它与基于循环的图神经网络的区别。接着,我们将从头开始为读者介绍卷积的基本概念,以及其在物理模型中的涵义。最后,我们将详细地介绍两种不同的卷积操作,分别为空域卷积和时域卷积,与其对应的经典模型。读者不需有任何信号处理方面的基础,傅里叶变换等概念都会在本文中详细介绍。 阅读全文
posted @ 2019-06-09 22:31 SivilTaram 阅读(103462) 评论(71) 推荐(18) 编辑
摘要: 笔者最近看了一些图与图卷积神经网络的论文,深感其强大,但一些Survey或教程默认了读者对图神经网络背景知识的了解,对未学过信号处理的读者不太友好。同时,很多教程只讲是什么,不讲为什么,也没有梳理清楚不同网络结构的区别与设计初衷(Motivation)。 因此,本文试图沿着图神经网络的历史脉络,从最早基于不动点理论的图神经网络(Graph Neural Network, GNN)一步步讲到当前用得最火的图卷积神经网络(Graph Convolutional Neural Network, GCN), 期望通过本文带给读者一些灵感与启示。 阅读全文
posted @ 2019-06-09 12:26 SivilTaram 阅读(118904) 评论(59) 推荐(43) 编辑
摘要: [篇幅较长,10.15前补充完毕,如希望探索可直接移步Github仓库:https://github.com/SivilTaram/CITest] 在编程课中,我们可以使用成熟的在线评测系统来测试某个代码块或文件在功能实现上的正确性。但在软件工程课中,对项目的自动测试仍然是一个有挑战性的问题。一个比 阅读全文
posted @ 2018-10-10 00:26 SivilTaram 阅读(767) 评论(0) 推荐(2) 编辑
摘要: 在阿超完成了编码、单元测试、调试后,完成了第一个可用的版本,一下子打印出好多份不同的题目,让孩子做了。老师看了作业之后对阿超赞许有加。别的老师闻讯也想要类似的程序,让全校的小学生都能用,并提出了一些小小的要求,例如: 题目避免重复 可定制数量 可以控制一下参数 乘除法、括号、数制范围、数值范围、…… 阅读全文
posted @ 2018-06-16 13:29 SivilTaram 阅读(1412) 评论(2) 推荐(0) 编辑
摘要: 第二届构建之法论坛暨软件工程培训活动预培训文档中【适用于结对编程部分的C++版本】,需要实验者有一部分C++基础。 阅读全文
posted @ 2018-06-11 22:14 SivilTaram 阅读(6766) 评论(12) 推荐(4) 编辑
摘要: 第二届构建之法论坛暨软件工程培训活动预培训文档中【适用于结对编程部分的Java版本】,需要实验者有一部分Java基础。 阅读全文
posted @ 2018-06-10 22:12 SivilTaram 阅读(5105) 评论(12) 推荐(2) 编辑