01 2022 档案
摘要:生成式对抗网络 Ian Goodfellow等人在2014年的论文中提出了生成式对抗网络,尽管这个想法立刻使研究人员们兴奋不已,但还是花了几年时间才克服了训练GAN的一些困难。就像许多伟大的想法一样,事后看起来似乎很简单:让神经网络竞争,希望这种竞争能够促使它们变得更好。GAN由两个神经网络组成 生
阅读全文
摘要:非线性规划 飞行管理问题 在约 10,000m 高空的某边长 160km 的正方形区域内,经常有若干架飞机作水平 飞行。区域内每架飞机的位置和速度向量均由计算机记录其数据,以便进行飞行管理。 当一架欲进入该区域的飞机到达区域边缘时,记录其数据后,要立即计算并判断是否会 与区域内的飞机发生碰撞。如果会
阅读全文
摘要:用Python实现线性规划 使用python库中scipy中的函数linprog来求解线性规划 linprog函数中线性规划的标准形式为 \[ \min c^Tx\\ s.t\left\{\begin{aligned}Auq\cdot x&\le b\\ Aeq\cdot x&=beq\\ lb\l
阅读全文
摘要:变分自动编码器 Diederik Kingma和Max Welling于2013年推出了自动编码器的另一个重要类别,并迅速成为最受欢迎的自动编码器类型之一:变分自动编码器 它们与目前为止的自动编码器有很大的不同,它们具有以下特殊的地方: 它们是概率自动编码器,这意味着即使在训练后,它们的输出会部分由
阅读全文
摘要:稀疏自动编码器 另一种会导致良好特征提取的约束是稀疏性:通过在成本函数中添加适当的函数项,强迫自动编码器减少编码层中活动神经元的数量。例如,可以强迫其在编码层中平均仅有5%的显著活动神经元。这迫使自动编码器将每个输入表示为少量活动神经元的组合。结果,编码层中的每个神经元最终会代表一个有用的特征 一种
阅读全文
摘要:去噪自动编码器 强制自动编码器学习有用特征的另一种方法是向其输入中添加噪声,训练它来恢复原始的无噪声输入。这个想法自1980年代开始就存在(在Yann LeCun 1987年的硕士论文中提到过)。在2008年的论文中,Pascal Vincent等人表明自动编码器也可以用于特征提取。在2010年的论
阅读全文
摘要:循环自动编码器 如果要为序列构建自动编码器,例如时间序列和文本(例如,用于无监督学习或降维),那么递归神经元可能比密集网络更合适。构建循环自动编码器非常简单直接:编码器通常是序列到向量的RNN,它将输入序列压缩为单个向量。解码器是向量到序列RNN,做相反的处理: from tensorflow im
阅读全文
摘要:卷积自动编码器 如果要处理图像,目前为止的自动编码器都无法很好的工作(除非图像非常小),卷积神经网络比密集网络更适合处理图像。如果要为图像构建自动编码器(例如,用于无监督预训练或降维),则需要构建卷积自动编码器。编码器是由卷积层和池化层组成的常规CNN。它通常会减小输入的空间尺寸(即高度和宽度),同
阅读全文
摘要:堆叠式自动编码器 自动编码器可以具有多个隐藏层。在这种情况下,它们被称为堆叠式自动编码器(或深度自动编码器)。添加更多的层有助于自动编码器学习更多的复杂的编码。就是说,要注意不要使自动编码器过于强大。想象一个强大的编码器,它只是学会了把每个输入映射到单个任意数字(而解码器则学习反向映射)。显然这样的
阅读全文
摘要:支持函数式编程的包 Python的目标不是变成函数式语言,但是得益于operator和functools等包的支持,函数式编程风格也可以信手拈来 operator模块 在函数式编程中,经常需要把算术运算符当作函数使用。例如,不适使用递归计算阶乘。求和可以使用sum函数,但是求积没有这样的函数。可以使
阅读全文
摘要:函数注解 Python 3提供了一种句法,用于为函数声明中的参数和返回值附加元数据 # 有注解的clip函数 def clip(text: str, max_len: 'int>0' = 80) -> str: # max_len参数的注解是字符串 '''在max_len前面或后面的第一个空格处截断
阅读全文

浙公网安备 33010602011771号