摘要:
前言: CNN作为DL中最成功的模型之一,有必要对其更进一步研究它。虽然在前面的博文Stacked CNN简单介绍中有大概介绍过CNN的使用,不过那是有个前提的:CNN中的参数必须已提前学习好。而本文的主要目的是介绍CNN参数在使用bp算法时该怎么训练,毕竟CNN中有卷积层和下采样层,虽然和MLP的 阅读全文
posted @ 2018-01-26 20:37
北方客888
阅读(261)
评论(0)
推荐(0)
摘要:
深度网络结构是由多个单层网络叠加而成的,而常见的单层网络按照编码解码情况可以分为下面3类: 既有encoder部分也有decoder部分:比如常见的RBM系列(由RBM可构成的DBM, DBN等),autoencoder系列(以及由其扩展的sparse autoencoder, denoise au 阅读全文
posted @ 2018-01-26 20:36
北方客888
阅读(121)
评论(0)
推荐(0)
摘要:
前言: 本文主要是bengio的deep learning tutorial教程主页中最后一个sample:rnn-rbm in polyphonic music. 即用RNN-RBM来model复调音乐,训练过程中采用的是midi格式的音频文件,接着用建好的model来产生复调音乐。对音乐建模的难 阅读全文
posted @ 2018-01-26 20:35
北方客888
阅读(311)
评论(0)
推荐(0)
摘要:
Contractive autoencoder是autoencoder的一个变种,其实就是在autoencoder上加入了一个规则项,它简称CAE(对应中文翻译为?)。通常情况下,对权值进行惩罚后的autoencoder数学表达形式为: 这是直接对W的值进行惩罚的,而今天要讲的CAE其数学表达式同样 阅读全文
posted @ 2018-01-26 20:33
北方客888
阅读(397)
评论(0)
推荐(0)
摘要:
CNN中卷积完后有个步骤叫pooling, 在ICLR2013上,作者Zeiler提出了另一种pooling手段(最常见的就是mean-pooling和max-pooling),叫stochastic pooling,在他的文章还给出了效果稍差点的probability weighted pooli 阅读全文
posted @ 2018-01-26 20:32
北方客888
阅读(176)
评论(0)
推荐(0)
摘要:
和maxout(maxout简单理解)一样,DropConnect也是在ICML2013上发表的,同样也是为了提高Deep Network的泛化能力的,两者都号称是对Dropout(Dropout简单理解)的改进。 我们知道,Dropout是在训练过程中以一定概率1-p将隐含层节点的输出值清0,而用 阅读全文
posted @ 2018-01-26 20:31
北方客888
阅读(173)
评论(0)
推荐(0)
摘要:
maxout出现在ICML2013上,作者Goodfellow将maxout和dropout结合后,号称在MNIST, CIFAR-10, CIFAR-100, SVHN这4个数据上都取得了start-of-art的识别率。 从论文中可以看出,maxout其实一种激发函数形式。通常情况下,如果激发函 阅读全文
posted @ 2018-01-26 20:30
北方客888
阅读(254)
评论(0)
推荐(0)
摘要:
前言: 听说Pylearn2是个蛮适合搞深度学习的库,它建立在Theano之上,支持GPU(估计得以后工作才玩这个,现在木有这个硬件条件)运算,由DL大牛Bengio小组弄出来的,再加上Pylearn2里面已经集成了一部分常见的DL算法,本着很想读读这些算法的源码和细节这一想法,打算学习下Pylea 阅读全文
posted @ 2018-01-26 20:29
北方客888
阅读(173)
评论(0)
推荐(0)
摘要:
目前,深度网络(Deep Nets)权值训练的主流方法还是梯度下降法(结合BP算法),当然在此之前可以用无监督的方法(比如说RBM,Autoencoder)来预训练参数的权值,而梯度下降法应用在深度网络中的一个缺点是权值的迭代变化值会很小,很容易收敛到的局部最优点;另一个缺点是梯度下降法不能很好的处 阅读全文
posted @ 2018-01-26 20:28
北方客888
阅读(137)
评论(0)
推荐(0)
摘要:
前言: 当采用无监督的方法分层预训练深度网络的权值时,为了学习到较鲁棒的特征,可以在网络的可视层(即数据的输入层)引入随机噪声,这种方法称为Denoise Autoencoder(简称dAE),由Bengio在08年提出,见其文章Extracting and composing robust fea 阅读全文
posted @ 2018-01-26 20:27
北方客888
阅读(250)
评论(0)
推荐(0)
摘要:
前言 训练神经网络模型时,如果训练样本较少,为了防止模型过拟合,Dropout可以作为一种trikc供选择。Dropout是hintion最近2年提出的,源于其文章Improving neural networks by preventing co-adaptation of feature det 阅读全文
posted @ 2018-01-26 20:26
北方客888
阅读(223)
评论(0)
推荐(0)
摘要:
前言: 本次主要是练习下ICA模型,关于ICA模型的理论知识可以参考前面的博文:Deep learning:三十三(ICA模型)。本次实验的内容和步骤可以是参考UFLDL上的教程:Exercise:Independent Component Analysis。本次实验完成的内容和前面的很多练习类似, 阅读全文
posted @ 2018-01-26 20:25
北方客888
阅读(164)
评论(0)
推荐(0)
摘要:
前言: 本节主要是来简单介绍下stacked CNN(深度卷积网络),起源于本人在构建SAE网络时的一点困惑:见Deep learning:三十六(关于构建深度卷积SAE网络的一点困惑)。因为有时候针对大图片进行recognition时,需要用到无监督学习的方法去pre-training(预训练)s 阅读全文
posted @ 2018-01-26 20:24
北方客888
阅读(126)
评论(0)
推荐(0)
摘要:
内容: 本文主要是参考论文:On optimization methods for deep learning,文章内容主要是笔记SGD(随机梯度下降),LBFGS(受限的BFGS),CG(共轭梯度法)三种常见优化算法的在deep learning体系中的性能。下面是一些读完的笔记。 SGD优点:实 阅读全文
posted @ 2018-01-26 20:23
北方客888
阅读(155)
评论(0)
推荐(0)
摘要:
前言: 本文是针对上篇博文Deep learning:三十四(用NN实现数据的降维)的练习部分,也就是Hition大牛science文章reducing the dimensionality of data with neural networks的code部分,其code下载见:http://ww 阅读全文
posted @ 2018-01-26 20:22
北方客888
阅读(295)
评论(0)
推荐(0)
摘要:
前言: 最近一直在思考,如果我使用SCSAE(即stacked convolution sparse autoendoer)算法来训练一个的deep model的话,其网络的第二层开始后续所有网络层的训练数据从哪里来呢?其实如果在这个问题中,当我们的样本大小(指提供的最原始数据,比如大的图片集)和我 阅读全文
posted @ 2018-01-26 20:22
北方客888
阅读(130)
评论(0)
推荐(0)
摘要:
数据降维的重要性就不必说了,而用NN(神经网络)来对数据进行大量的降维是从2006开始的,这起源于2006年science上的一篇文章:reducing the dimensionality of data with neural networks,作者就是鼎鼎有名的Hinton,这篇文章也标志着d 阅读全文
posted @ 2018-01-26 20:21
北方客888
阅读(138)
评论(0)
推荐(0)
摘要:
基础知识: 在sparse coding(可参考Deep learning:二十六(Sparse coding简单理解),Deep learning:二十九(Sparse coding练习))模型中,学习到的基是超完备集的,也就是说基集中基的个数比数据的维数还要大,那么对一个数据而言,将其分解为基的 阅读全文
posted @ 2018-01-26 20:20
北方客888
阅读(136)
评论(0)
推荐(0)
摘要:
前言: 本次主要是重新复习下Sparse autoencoder基础知识,并且加入点自己的理解。关于sparse autoencoder在前面的博文Deep learning:八(Sparse Autoencoder)中已有所介绍。 基础知识: 首先来看看为什么sparse autoencoder能 阅读全文
posted @ 2018-01-26 20:19
北方客888
阅读(94)
评论(0)
推荐(0)
摘要:
前言: 本节主要是来练习下在machine learning(不仅仅是deep learning)设计前的一些数据预处理步骤,关于数据预处理的一些基本要点在前面的博文Deep learning:三十(关于数据预处理的相关技巧)中已有所介绍,无非就是数据的归一化和数据的白化,而数据的归一化又分为尺度归 阅读全文
posted @ 2018-01-26 20:18
北方客888
阅读(154)
评论(0)
推荐(0)
摘要:
前言: 本文主要是介绍下在一个实际的机器学习系统中,该怎样对数据进行预处理。个人感觉数据预处理部分在整个系统设计中的工作量占了至少1/3。首先数据的采集就非常的费时费力,因为这些数据需要考虑各种因素,然后有时还需对数据进行繁琐的标注。当这些都有了后,就相当于我们有了元素的raw数据,然后就可以进行下 阅读全文
posted @ 2018-01-26 20:17
北方客888
阅读(116)
评论(0)
推荐(0)
摘要:
前言 本节主要是练习下斯坦福DL网络教程UFLDL关于Sparse coding那一部分,具体的网页教程参考:Exercise:Sparse Coding。该实验的主要内容是从2w个自然图像的patches中分别采用sparse coding和拓扑的sparse coding方法进行学习,并观察学习 阅读全文
posted @ 2018-01-26 20:16
北方客888
阅读(123)
评论(0)
推荐(0)
摘要:
1.DeepID是什么?2.DeepID的强大的两个因素是什么?3.拿到图片数据后,本文做了那两件事情? 首先明确一个概念什么是DeepID? DeepID是人脸识别算法。 ########################### 目前人脸验证算法可以说是DeepID最强,本文使用theano对Dee 阅读全文
posted @ 2018-01-26 20:11
北方客888
阅读(620)
评论(0)
推荐(0)
摘要:
DeepID,目前最强人脸识别算法,已经三代。 如今,深度学习方兴未艾,大数据风起云涌,各个领域都在处于使用深度学习进行强突破的阶段,人脸识别也不例外,香港中文大学的团队使用卷积神经网络学习特征,将之用于人脸识别的子领域人脸验证方面,取得了不错的效果。虽然是今年7月份才出的成果,但连发三箭,皆中靶心 阅读全文
posted @ 2018-01-26 20:09
北方客888
阅读(132)
评论(0)
推荐(0)
摘要:
前言 本节主要是练习下斯坦福DL网络教程UFLDL关于Sparse coding那一部分,具体的网页教程参考:Exercise:Sparse Coding。该实验的主要内容是从2w个自然图像的patches中分别采用sparse coding和拓扑的sparse coding方法进行学习,并观察学习 阅读全文
posted @ 2018-01-26 20:07
北方客888
阅读(127)
评论(0)
推荐(0)
摘要:
前言: 关于Sparse coding目标函数的优化会涉及到矩阵求数问题,因为里面有好多矩阵范数的导数,加上自己对矩阵运算不熟悉,推导前面博文Deep learning:二十六(Sparse coding简单理解)中关于拓扑(非拓扑的要简单很多)Sparse coding代价函数对特征变量s导数的公 阅读全文
posted @ 2018-01-26 20:06
北方客888
阅读(155)
评论(0)
推荐(0)
摘要:
前言: 由于在sparse coding模型中求系统代价函数偏导数时需要用到矩阵的范数求导,这在其它模型中应该也很常见,比如说对一个矩阵内的元素值进行惩罚,使其值不能过大,则可以使用F范数(下面将介绍)约束,查阅了下矩阵范数求导的相关资料,本节就简单介绍下。 首先,网络上有大把的人把2范数和F=2时 阅读全文
posted @ 2018-01-26 20:05
北方客888
阅读(188)
评论(0)
推荐(0)
摘要:
Sparse coding: 本节将简单介绍下sparse coding(稀疏编码),因为sparse coding也是deep learning中一个重要的分支,同样能够提取出数据集很好的特征。本文的内容是参考斯坦福deep learning教程:Sparse Coding,Sparse Codi 阅读全文
posted @ 2018-01-26 20:04
北方客888
阅读(289)
评论(0)
推荐(0)
摘要:
前言: 本文是用kmeans方法来分析单层网络的性能,主要是用在CIFAR-10图像识别数据库上。关于单层网络的性能可以参考前面的博文:Deep learning:二十(无监督特征学习中关于单层网络的分析)。当然了,本文依旧是参考论文An Analysis of Single-Layer Netwo 阅读全文
posted @ 2018-01-26 20:03
北方客888
阅读(138)
评论(0)
推荐(0)
摘要:
前言: 本次是练习2个隐含层的网络的训练方法,每个网络层都是用的sparse autoencoder思想,利用两个隐含层的网络来提取出输入数据的特征。本次实验验要完成的任务是对MINST进行手写数字识别,实验内容及步骤参考网页教程Exercise: Implement deep networks f 阅读全文
posted @ 2018-01-26 20:02
北方客888
阅读(293)
评论(0)
推荐(0)
摘要:
前言: 本次实验是练习convolution和pooling的使用,更深一层的理解怎样对大的图片采用convolution得到每个特征的输出结果,然后采用pooling方法对这些结果进行计算,使之具有平移不变等特性。实验参考的是斯坦福网页教程:Exercise:Convolution and Poo 阅读全文
posted @ 2018-01-26 20:00
北方客888
阅读(169)
评论(0)
推荐(0)
摘要:
前言: 本节是练习Linear decoder的应用,关于Linear decoder的相关知识介绍请参考:Deep learning:十七(Linear Decoders,Convolution和Pooling),实验步骤参考Exercise: Implement deep networks fo 阅读全文
posted @ 2018-01-26 19:58
北方客888
阅读(128)
评论(0)
推荐(0)
摘要:
这又是Ng团队的一篇有趣的paper。Ng团队在上篇博客文章Deep learning:二十(无监督特征学习中关于单层网络的分析)中给出的结论是:网络中隐含节点的个数,convolution尺寸和移动步伐等参数比网络的层次比网络参数的学习算法本身还要重要,也就是说即使是使用单层的网络,只要隐含层的节 阅读全文
posted @ 2018-01-26 19:57
北方客888
阅读(129)
评论(0)
推荐(0)
摘要:
本文是读Ng团队的论文” An Analysis of Single-Layer Networks in Unsupervised Feature Learning”后的分析,主要是针对一个隐含层的网络结构进行分析的,分别对比了4种网络结构,k-means, sparse autoencoder, 阅读全文
posted @ 2018-01-26 19:54
北方客888
阅读(121)
评论(0)
推荐(0)
摘要:
这篇博客主要用来简单介绍下RBM网络,因为deep learning中的一个重要网络结构DBN就可以由RBM网络叠加而成,所以对RBM的理解有利于我们对DBN算法以及deep learning算法的进一步理解。Deep learning是从06年开始火得,得益于大牛Hinton的文章,不过这位大牛的 阅读全文
posted @ 2018-01-26 19:53
北方客888
阅读(243)
评论(0)
推荐(0)
摘要:
由于最近在看deep learning中的RBMs网络,而RBMs中本身就有各种公式不好理解,再来几个Gibbs采样,就更令人头疼了。所以还是觉得先看下Gibbs采样的理论知识。经过调查发现Gibbs是随机采样中的一种。所以本节也主要是简单层次的理解下随机采用知识。参考的知识是博客随机模拟的基本思想 阅读全文
posted @ 2018-01-26 19:52
北方客888
阅读(640)
评论(0)
推荐(0)
摘要:
本文主要是学习下Linear Decoder已经在大图片中经常采用的技术convolution和pooling,分别参考网页http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial中对应的章节部分。 Linear Decoders: 阅读全文
posted @ 2018-01-26 19:50
北方客888
阅读(83)
评论(0)
推荐(0)
摘要:
前言: 本次实验主要是练习soft- taught learning的实现。参考的资料为网页:http://deeplearning.stanford.edu/wiki/index.php/Exercise:Self-Taught_Learning。Soft-taught leaning是用的无监督 阅读全文
posted @ 2018-01-26 19:49
北方客888
阅读(103)
评论(0)
推荐(0)
摘要:
本节参考的是网页http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial中关于Building Deep Networks for Classification一节的介绍。分下面2大部分内容: 1. 从self-taught到dee 阅读全文
posted @ 2018-01-26 19:49
北方客888
阅读(100)
评论(0)
推荐(0)
摘要:
前言: 这篇文章主要是用来练习softmax regression在多分类器中的应用,关于该部分的理论知识已经在前面的博文中Deep learning:十三(Softmax Regression)有所介绍。本次的实验内容是参考网页:http://deeplearning.stanford.edu/w 阅读全文
posted @ 2018-01-26 19:47
北方客888
阅读(145)
评论(0)
推荐(0)
摘要:
在前面的logistic regression博文Deep learning:四(logistic regression练习) 中,我们知道logistic regression很适合做一些非线性方面的分类问题,不过它只适合处理二分类的问题,且在给出分类结果时还会给出结果的概率。那么如果需要用类似的 阅读全文
posted @ 2018-01-26 19:46
北方客888
阅读(101)
评论(0)
推荐(0)
摘要:
前言: 现在来用PCA,PCA Whitening对自然图像进行处理。这些理论知识参考前面的博文:Deep learning:十(PCA和whitening)。而本次试验的数据,步骤,要求等参考网页:http://deeplearning.stanford.edu/wiki/index.php/UF 阅读全文
posted @ 2018-01-26 19:45
北方客888
阅读(136)
评论(0)
推荐(0)
摘要:
前言: 这节主要是练习下PCA,PCA Whitening以及ZCA Whitening在2D数据上的使用,2D的数据集是45个数据点,每个数据点是2维的。参考的资料是:Exercise:PCA in 2D。结合前面的博文Deep learning:十(PCA和whitening)理论知识,来进一步 阅读全文
posted @ 2018-01-26 19:40
北方客888
阅读(113)
评论(0)
推荐(0)
摘要:
PCA: PCA的具有2个功能,一是维数约简(可以加快算法的训练速度,减小内存消耗等),一是数据的可视化。 PCA并不是线性回归,因为线性回归是保证得到的函数是y值方面误差最小,而PCA是保证得到的函数到所降的维度上的误差最小。另外线性回归是通过x值来预测y值,而PCA中是将所有的x样本都同等对待。 阅读全文
posted @ 2018-01-26 19:38
北方客888
阅读(128)
评论(0)
推荐(0)
摘要:
前言: 现在来进入sparse autoencoder的一个实例练习,参考Ng的网页教程:Exercise:Sparse Autoencoder。这个例子所要实现的内容大概如下:从给定的很多张自然图片中截取出大小为8*8的小patches图片共10000张,现在需要用sparse autoencod 阅读全文
posted @ 2018-01-26 19:37
北方客888
阅读(143)
评论(0)
推荐(0)
摘要:
前言: 这节课来学习下Deep learning领域比较出名的一类算法——sparse autoencoder,即稀疏模式的自动编码。我们知道,deep learning也叫做unsupervised learning,所以这里的sparse autoencoder也应是无监督的。按照前面的博文:D 阅读全文
posted @ 2018-01-26 19:35
北方客888
阅读(131)
评论(0)
推荐(0)
摘要:
前面的文章已经介绍过了2种经典的机器学习算法:线性回归和logistic回归,并且在后面的练习中也能够感觉到这2种方法在一些问题的求解中能够取得很好的效果。现在开始来看看另一种机器学习算法——神经网络。线性回归或者logistic回归问题理论上不是可以解决所有的回归和分类问题么,那么为什么还有其它各 阅读全文
posted @ 2018-01-26 19:34
北方客888
阅读(85)
评论(0)
推荐(0)
摘要:
前言: 在上一讲Deep learning:五(regularized线性回归练习)中已经介绍了regularization项在线性回归问题中的应用,这节主要是练习regularization项在logistic回归中的应用,并使用牛顿法来求解模型的参数。参考的网页资料为:http://opencl 阅读全文
posted @ 2018-01-26 19:33
北方客888
阅读(75)
评论(0)
推荐(0)
摘要:
前言: 本节主要是练习regularization项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。因此在模型的损失函数中,需要对模型的参数进行“惩罚”,这样的话这些参数就不会太大,而越小的参数说明模型越简单,越简单的模型则越 阅读全文
posted @ 2018-01-26 19:28
北方客888
阅读(94)
评论(0)
推荐(0)
摘要:
前言: 本节来练习下logistic regression相关内容,参考的资料为网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex4/ex4.htm 阅读全文
posted @ 2018-01-26 19:23
北方客888
阅读(112)
评论(0)
推荐(0)
摘要:
前言: 本文主要是来练习多变量线性回归问题(其实本文也就3个变量),参考资料见网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex3/ex3.html 阅读全文
posted @ 2018-01-26 19:22
北方客888
阅读(140)
评论(0)
推荐(0)
摘要:
前言 本文是多元线性回归的练习,这里练习的是最简单的二元线性回归,参考斯坦福大学的教学网http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex2/ex2.ht 阅读全文
posted @ 2018-01-26 19:20
北方客888
阅读(176)
评论(0)
推荐(0)
摘要:
前言: 最近打算稍微系统的学习下deep learing的一些理论知识,打算采用Andrew Ng的网页教程UFLDL Tutorial,据说这个教程写得浅显易懂,也不太长。不过在这这之前还是复习下machine learning的基础知识,见网页:http://openclassroom.stan 阅读全文
posted @ 2018-01-26 19:18
北方客888
阅读(82)
评论(0)
推荐(0)
摘要:
在这篇博客中,我们开始为我们的博客开发Blogs App和Users App相关的管理功能,以便每个用户都能管理自己的博客以及评论。目前,Users App的管理功能相对简单,主要功能为查看用户资料以及切换到博客管理页面,如下所示: 在点击了博客管理后,页面将跳转到管理页面,在此可进行对博客的各种管 阅读全文
posted @ 2018-01-26 17:07
北方客888
阅读(415)
评论(0)
推荐(0)
摘要:
上一篇博客中介绍了Blogs App的部分后端功能的实现,在这篇博客中,将继续为大家介绍Blogs App中前端功能的实现。 首先来看发布博客功能的前端页面。在blogs/templates/blogs目录下建立名为addBlog.html的文件,作为我们的发布博客页面。addBlog.html内容 阅读全文
posted @ 2018-01-26 17:06
北方客888
阅读(418)
评论(0)
推荐(0)
摘要:
这篇应该是2017年的最后一篇博客了,在这里首先祝大家元旦快乐! 从这篇博客开始,将会介绍Blogs App的功能实现,包括数据模型的建立、相关功能的视图函数的实现、前端页面的设计等,这意味着我们即将可以书写真正的博客了。 首先来建立我们的Blogs App,方法同建立Users App,即在man 阅读全文
posted @ 2018-01-26 17:05
北方客888
阅读(279)
评论(0)
推荐(0)
摘要:
在上一篇博文中,向大家介绍了Users App和Index的前端部分的实现,以及前端与Django的通信部分。至此,我们的博客已经具备一个简单的雏形,可以将其部署在本地的服务器上了。目前较为流行的web服务器有apache,nginx等等,我们这里选择uwsgi+nginx的方式进行部署。 在部署博 阅读全文
posted @ 2018-01-26 17:03
北方客888
阅读(452)
评论(0)
推荐(0)
摘要:
由于在上篇博文中仍然介绍了相当多的后端部分,导致原定于上篇介绍的前端部分“跳票”到了这篇。在此篇博文中,我将会介绍Users App和主页的前端部分,从而形成我们博客的一个雏形。 在前端部分,我们主要使用前端模板来建立我们的网页。Django提供了默认的模板引擎供我们使用。借助模板引擎,我们可以方便 阅读全文
posted @ 2018-01-26 17:02
北方客888
阅读(216)
评论(0)
推荐(0)
摘要:
(本来打算在这篇博文中介绍Users App的前端部分的,但写着写着就发现还需要铺垫很多东西才能把整个项目串的比较流畅些,因此这篇就继续介绍了后端的一些东西,前端的部分只好跳票到下一篇了~) 在上一篇博文中,向大家介绍了User App的model以及后台功能实现。这篇博文将会介绍对Users Ap 阅读全文
posted @ 2018-01-26 17:00
北方客888
阅读(314)
评论(0)
推荐(0)
摘要:
在上一篇博客中,为大家介绍了Django的一些基本概念以及建立了第一个App——Users,并且在数据库中建立了对应的表。 在这篇博客中,将为大家继续介绍数据库模型的定义和相关操作,以及Users App功能的后端实现——注册,登录以及查看用户资料。 上篇博客中,我们通过Users model建立了 阅读全文
posted @ 2018-01-26 16:58
北方客888
阅读(243)
评论(0)
推荐(0)

浙公网安备 33010602011771号