上一页 1 ··· 38 39 40 41 42 43 44 45 46 ··· 48 下一页

2019年9月15日

摘要: 对称加密(DES、3DES、AES)与非对称加密(RSA)的实现 阅读全文
posted @ 2019-09-15 08:40 穷酸秀才大草包 阅读(349) 评论(0) 推荐(0)

2019年8月26日

摘要: 原因:保存下来的模型和参数不能在没有类定义时直接使用。 Pytorch使用Pickle来处理保存/加载模型,这个问题实际上是Pickle的问题,而不是Pytorch。 解决方法也非常简单,只需显式地导入类定义。即将包含类定义的文件复制粘贴到与要运行的文件同一文件夹下,再import Class! 但 阅读全文
posted @ 2019-08-26 14:38 穷酸秀才大草包 阅读(8665) 评论(0) 推荐(0)

2019年8月17日

摘要: Paillier同态加密实现(C++ / Python) 阅读全文
posted @ 2019-08-17 17:01 穷酸秀才大草包 阅读(4018) 评论(0) 推荐(1)

2019年8月14日

摘要: 一、在/home目录下新建userName目录 sudo useradd -m -s /bin/bash userName 二、设置密码 sudo passwd userName 阅读全文
posted @ 2019-08-14 15:29 穷酸秀才大草包 阅读(792) 评论(0) 推荐(0)

2019年8月7日

摘要: 本文研究了一个新的计算问题,即合数剩余阶问题(Composite Residuosity Class Problem),及其在公钥密码学中的应用。我们提出了一种新的陷阱门(trapdoor)机制,并从这一技术中推导出了三种加密方案:一种陷阱门排列方案和两种同态概率加密方案,其计算结果与RSA相当。我们的密码系统基于通常的模块化算法,在标准模型的适当假设下可以证明其安全性。 阅读全文
posted @ 2019-08-07 16:45 穷酸秀才大草包 阅读(1475) 评论(0) 推荐(0)

2019年8月5日

摘要: PyTorch学习笔记 阅读全文
posted @ 2019-08-05 19:48 穷酸秀才大草包 阅读(1009) 评论(0) 推荐(0)

2019年8月1日

摘要: 不幸的是,我们发现任何隐私保护的协作深度学习都容易受到我们在本文中设计的强大攻击。特别是,我们表明分布式、联邦或分散的深度学习方法从根本上将会被打破,并且不再能保护诚实参与者的训练集。我们开发的攻击利用了学习过程的实时性,使对手能够训练一个生成对抗网络(GAN)。该网络生成目标训练集的原型样本,而目标训练集是私有的(由GAN生成的样本旨在产生自与训练数据相同的分布)。有趣的是,我们表明,如前面的工作中所提出的,应用于模型共享参数的记录级别差异隐私是无效的(即记录级别差异隐私DP不是为解决我们的攻击而设计的)。 阅读全文
posted @ 2019-08-01 09:05 穷酸秀才大草包 阅读(3327) 评论(3) 推荐(0)

2019年7月25日

摘要: 我们建立了一个隐私保护的深度学习系统,在这个系统中,许多学习参与者对组合后的数据集执行基于神经网络的深度学习,而实际上没有向中央服务器透露参与者的本地数据。为此,我们重新回顾了Shokri和Shmatikov(ACM CCS 2015)之前的工作,并指出本地数据信息实际上可能泄漏给诚实但好奇的服务器。然后,我们通过构建一个具有以下特性的增强系统来解决这个问题:(1)没有向服务器泄漏任何信息;(2)与普通的深度学习系统相比,在合并的数据集上,精度保持不变。 阅读全文
posted @ 2019-07-25 12:09 穷酸秀才大草包 阅读(2198) 评论(0) 推荐(0)

2019年7月24日

摘要: 部分引用+自己的总结 阅读全文
posted @ 2019-07-24 11:26 穷酸秀才大草包 阅读(11774) 评论(6) 推荐(3)
摘要: (转载)本文将讨论一个简化了的图像分析案例,介绍所有需要用到的技术。GitHub上有一些和本文配套的notebook(mortendahl/privateml),其中主要的notebook提供了概念证明实现。 阅读全文
posted @ 2019-07-24 09:05 穷酸秀才大草包 阅读(938) 评论(0) 推荐(1)
上一页 1 ··· 38 39 40 41 42 43 44 45 46 ··· 48 下一页

导航