07 2017 档案
摘要:前面的不做过多解释了。 这里定义了两个占位符,各位也知道,在训练时,feed_dict会填充它们。 定义相关网络。 这里是权值矩阵和偏差。 这里是实例化了网络,定义了优化器和损失,和上一篇一样。 最后,写一个两重的for循环,进行训练。 然后简单地测试一下。
阅读全文
摘要:加载数据集。 这里的keep_prob是dropout的一个参数。dropout是一种随机置零的策略,用来防止模型过拟合。 这里定义两层,上面是卷积层,下面是池化层。 搭建了一层卷积、一层池化、一层卷积、一层池化。之后将输出展平,输入到全连接层里,进行输出,激活函数选用了relu函数。 这是上面神经
阅读全文
摘要:自动编码机(Autoencoder)属于非监督学习,不需要对训练样本进行标记。自动编码机(Autoencoder)由三层网络组成,其中输入层神经元数量与输出层神经元数量相等,中间层神经元数量少于输入层和输出层。在网络训练期间,对每个训练样本,经过网络会在输出层产生一个新的信号,网络学习的目的就是使输
阅读全文
摘要:最近邻模型,更为常见的是k-最近邻模型,是一种常见的机器学习模型,原理如下: KNN算法的前提是存在一个样本的数据集,每一个样本都有自己的标签,表明自己的类型。现在有一个新的未知的数据,需要判断它的类型。那么通过计算新未知数据与已有的数据集中每一个样本的距离,然后按照从近到远排序。取前K个最近距离的
阅读全文
摘要:import库,加载mnist数据集。 设置学习率,迭代次数,batch并行计算数量,以及log显示。 这里设置了占位符,输入是batch * 784的矩阵,由于是并行计算,所以None实际上代表并行数。输出是10类,因为mnist数据集是手写数字0-9,所以分成10类是很正常的。 W和b是变量。
阅读全文
摘要:首先呢,进行import,对于日常写代码来说,第二行经常写成:import numpy as np,这样会更加简洁。第三行import用于绘图。 定义了学习率、迭代数epoch,以及展示的学习步骤,三个参数。 同时给出了训练用的原始数据,n_samples用来记录一共有多少数据。 这里指明了计算图的
阅读全文
摘要:众所周知我暂时弃掉了那个音乐生成的坑,原因是我的代码写得还不够纯熟…… 现在我找到了一个项目,用来从代码基础开始补起,同时写下学习笔记。 项目地址:https://github.com/aymericdamien/TensorFlow-Examples 首先最基础的第0章我们就跳过了,这个不涉及Te
阅读全文
摘要:比如说根据作曲风格判断音乐家是谁(分类问题) 比如说,模仿作曲家生成相似的音乐…… 比如说,视频配背景音乐……
阅读全文
摘要:数据集还在制作中,样例数据如下: 我将一条数据作为一行,X是ID,O代表了情感向量,S是速度,是一个很关键的参数,K是调式,M是节拍,L是基本拍。后面是ABC格式的序列,通过embedding化这些音符和和弦,还有分隔符标记,可以进行音乐序列生成。其实这个有点像是文本生成的类型,但是又加了一些先验条
阅读全文
摘要:关于数据集的制作,我决定去掉很多不必要的东西,比如和弦,于是我选择了melody部分的旋律。 有了midi文件,我现在要abc序列,所以我要通过midi2abc转换一下文件。 批处理程序效果如下: 文件代码如下:
阅读全文
摘要:数据集地址:http://www.imageemotion.org/ 论文地址:http://www.doc88.com/p-1905670442096.html
阅读全文
摘要:ABC格式,是一个音乐标准,ABC Plus Project最新的标准是2.x。 ABC格式的音乐长成这样: 对应的五线谱是这样的: 我找到了一个自动转换的网址(http://colinhume.com/music.aspx),可以图形化地将ABC转成MIDI和五线谱,这证明轮子是存在的,那么我们能
阅读全文
摘要:毕竟原网站一个是14年前的一个是16年前的…… 1,http://ifdo.ca/~seymour/nottingham/nottingham.html 这个网站可以下载zip包。 2,https://github.com/jukedeck/nottingham-dataset 这个网站下载的是AB
阅读全文
摘要:在前几天的讨论会上,有师兄指出原来的方法实在是很难训练,所以我改进了音乐生成的思路。 首先,我用LSTM生成的一定是一段音乐的序列化表达,那么我就可以用成型的一些数据集去训练LSTM。为了避免生成的音乐与现有的音乐有大量重复,我们可以考虑更改LSTM使其更加“健忘”,这样应该能解决一部分问题。接下来
阅读全文
摘要:从即日起到7月20号,项目成员进行了第一次任务分配。 赵同学A、岳同学、周同学,负责了图像数据的情感数据集制作,他们根据自己的经验,对图像进行了情绪提取。 赵同学B全权负责向量映射这一块的网络搭建。 我除了帮助其他成员完成任务以外,还要搭建好音乐生成的LSTM网络,同时预搭建音乐数据集。
阅读全文
摘要:这个项目主要涉及到两个网络,其中卷积神经网络用来提取图片表达的情绪,提取出一个二维向量。 网络结构如图: 词向量采用预训练的glove模型,d=50,其他信息包括了图片的“空旷程度”、亮度、对比度等信息,用来更好地描述图片特征。 对于图中的卷积神经网络,需要讲解的地方是:卷积核是一个一维卷积核,每一
阅读全文
摘要:做了半天做的都是一些细枝末节的东西,嗨呀。 伴奏旋律是Ukulele和弦,MIDI发音乐器是Guitar。在弹唱的时候,Ukulele和弦就是伴奏。 我们以创建《成都》伴奏为例: 节奏型: 和弦: 那么节奏型和和弦的组合可以视为一个二元矩阵,下面写一个函数用来寻址: 接下来我们新建一个音轨串联和弦:
阅读全文
摘要:mingus在输出midi文件的时候,使用这样的函数: 在输出时会报错: 解决办法是找到这个文件: ...\Anaconda3\Lib\site-packages\mingus-0.5.2-py3.6.egg 用7-Zip打开这个文件,直接编辑里面的midi_track.py文件: 找到230行,将
阅读全文
摘要:查阅了很久的资料,决定依据Yoshida的《Image retrieval system using impression words》这篇论文里的词语来定义。 Yoshida 等的 Art museum 系统,统计用户在看完图画后用到 的印象形容词,从中选取了 10 个常用的形容词,来描述图画。1
阅读全文
摘要:我之前就注意到,深度学习和音乐结合,尤其是从乐理出发进行结合(而不是纯粹的进行音乐生成),是一个尚未被深度挖掘的全新领域。可想而知,这个方向符合我要求的数据肯定是要自己搜集了。 自己搜集的数据,在量上就已经输了,只是考虑到我们要做的任务并不复杂,准确的说只是一个分类器,再加一个LSTM而已。对于这个
阅读全文
摘要:今天连看三篇论文,不是很细致地看,也没有具体去实现,只是大概明白了一些新思路。这三篇论文,一篇概述了Decoder-Encoder模型,一篇延伸这个模型,首次提出了Attention机制,最后一篇详细阐述了LSTM和GRU的工作机理。读完之后,我对机器翻译这个领域,还有LSTM的应用,有了更深的认识
阅读全文
摘要:目前我能想到的办法是这样的: 1,提取照片中的实体特征,借用某个pre-trained model进行tag标记。 2,将特征组合起来,形成一个bag-of-word model,然后将这个向量作为输入。进入CNN。 3,手动对照片贴标签,主要是对情感进行分类(如:安静、快乐,这样可以直观调节旋律)
阅读全文
摘要:jishude 首先援引一个资料网页:http://www.cosmosshadow.com/ml/%E5%BA%94%E7%94%A8/2016/03/01/%E9%9F%B3%E4%B9%90%E7%94%9F%E6%88%90.html 这个网页可以让基础薄弱的人对于乐理有一个全面的感知。 这
阅读全文
摘要:https://github.com/bspaans/python-mingus/issues/45 注意此时的安装方法应该是:
阅读全文
摘要:这个全新的Python音乐创作系列,将会不定期更新。写作这个系列的初衷,是为了做一个项目《基于图像特征的音乐序列生成模型》,实时地提取照片特征,进行神经网络处理,生成一段音乐。 千里之行,始于足下。首先我们要做的是,音乐序列怎么在计算机中表达出来。 首先参考知乎上的相关回答,以及PyPI上和音乐相关
阅读全文

浙公网安备 33010602011771号