上一页 1 ··· 760 761 762 763 764 765 766 767 768 ··· 851 下一页
摘要: 本人的 CSDN 博客、简书专题和博客园正式加入“环材化生劝退”计划,接受相关内容的投稿。 ApacheCN 开源社区接受各种环材化生转行咨询。 材料真的是朝阳行业吗?如何看待985高校例如交大的材料专业的研究生找不到好工作?材料学真的没前途吗?读材料专业的你后来都怎样了?如何评价「施一公请辞清华大 阅读全文
posted @ 2019-02-11 16:25 绝不原创的飞龙 阅读(26) 评论(0) 推荐(0)
摘要: 作者:材料劝退活雷锋 你不说是上海交大还是西安交大,我就针对我熟悉的上海交大材料系来谈谈吧。 首先没有比较就没有伤害。材料系目前跟CS,管院,电院,机械比,学生就业质量上确实有很大差距的,但应该和船建,化学差不多,起码比农生强(又黑了把生物)。其实材料专业(上海交大偏金属)就业在十年前也曾阔过,那时 阅读全文
posted @ 2019-02-11 14:39 绝不原创的飞龙 阅读(41) 评论(0) 推荐(0)
摘要: 作者:fogsail chen 看完了《绣春刀:修罗战场》,很感慨。剧中的很多人,包括沈炼,裴伦,陆文昭,他们身处那个世道,不得已而背叛朋友,杀人,那是因为他们没得选择。 他们仅仅是为了在修罗场上生存下来而已。 其实,某些专业的体系,不正是修罗场? 我觉得大家在劝退这件事上做很多努力了,但是我们无能 阅读全文
posted @ 2019-02-11 14:17 绝不原创的飞龙 阅读(26) 评论(0) 推荐(0)
摘要: 译者:hijkzzz torch.multiprocessing 是一个本地 multiprocessing 模块的包装. 它注册了自定义的reducers, 并使用共享内存为不同的进程在同一份数据上提供共享的视图. 一旦 tensor/storage 被移动到共享内存 (见 share_memor 阅读全文
posted @ 2019-02-10 11:23 绝不原创的飞龙 阅读(66) 评论(0) 推荐(0)
摘要: 译者:hijkzzz 卷积函数 conv1d torch.nn.functional.conv1d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) → Tensor 对由多个输入平面组成的输入信号进行一维卷积. 阅读全文
posted @ 2019-02-10 11:21 绝不原创的飞龙 阅读(48) 评论(0) 推荐(0)
摘要: 译者:片刻 torch.cuda 用于设置和运行 CUDA 操作。它会跟踪当前选定的GPU,并且默认情况下会在该设备上创建您分配的所有 CUDA tensors。可以使用 torch.cuda.device 上下文管理器更改所选设备。 但是,一旦分配了 tensor,就可以对其进行操作而不管所选择的 阅读全文
posted @ 2019-02-10 11:16 绝不原创的飞龙 阅读(24) 评论(0) 推荐(0)
摘要: 译者:yportne13 作者: Nathan Inkawhich 编辑: Teng Li 在这篇教程中我们会展示如何使用 Amazon AWS 的两个多路GPU节点来设置,编写和运行 PyTorch 1.0 分布式训练程序。首先我们会介绍 AWS 设置, 然后是 PyTorch 环境配置, 最后是 阅读全文
posted @ 2019-02-10 11:15 绝不原创的飞龙 阅读(22) 评论(0) 推荐(0)
摘要: 译者:ETCartman 之前我们已经学过了许多的前馈网络. 所谓前馈网络, 就是网络中不会保存状态. 然而有时 这并不是我们想要的效果. 在自然语言处理 (NLP, Natural Language Processing) 中, 序列模型是一个核心的概念. 所谓序列模型, 即输入依赖于时间信息的模 阅读全文
posted @ 2019-02-10 11:13 绝不原创的飞龙 阅读(21) 评论(0) 推荐(0)
摘要: 作者:张竣誉 打算用这一篇结束我的劝退文章写作:能救则救,多救一个其实是给我自己多一个对手,写这些,纯属为了报答当年受到劝退人士启发的恩情。 这篇将由以下几个问题组成: ①什么样的行业(专业)最好要放弃? ②放弃行业(专业)后,条条大路通码农(金融)? ③身在坑中的你为什么会如此反感我的言论? ④成 阅读全文
posted @ 2019-02-08 22:26 绝不原创的飞龙 阅读(10) 评论(0) 推荐(0)
摘要: 译者:bdqfork 这个包添加了对CUDA张量类型的支持,它实现了与CPU张量同样的功能,但是它使用GPU进计算。 它是懒加载的,所以你可以随时导入它,并使用 is_available() 来决定是否让你的系统支持CUDA。 CUDA semantics 有关于使用CUDA更详细的信息。 torc 阅读全文
posted @ 2019-02-03 16:31 绝不原创的飞龙 阅读(34) 评论(0) 推荐(0)
上一页 1 ··· 760 761 762 763 764 765 766 767 768 ··· 851 下一页