摘要:
完整代码:The Annotated Transformer 前言 关于Transformer原理与论文的介绍:详细了解Transformer:Attention Is All You Need PyTorch中实现Transformer模型 前面介绍了,Transformer 模型结构的实现,这里 阅读全文
摘要:
报错 在复现 Transformer 代码的训练阶段时,发生报错: RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu! 解决方案 通过 阅读全文
摘要:
完整代码:The Annotated Transformer 前言 关于Transformer原理与论文的介绍:详细了解Transformer:Attention Is All You Need 对于论文给出的模型架构,使用 PyTorch 分别实现各个部分。 # transformer.py im 阅读全文
摘要:
论文“Bi-directional Distribution Alignment for Transductive Zero-Shot Learning”提出Bi-VAEGAN,它以f-VAEGAN-D2为Baseline,进一步发展了TF-VAEGAN通过利用所见数据和反馈模块增强生成的视觉特征思 阅读全文
摘要:
前面介绍了将VAE+GAN解决零样本学习的方法:f-VAEGAN-D2,这里继续讨论引入生成模型处理零样本学习(Zero-shot Learning, ZSL)问题。论文“Latent Embedding Feedback and Discriminative Features for Zero-S 阅读全文
摘要:
论文链接:Meta-Tuning Loss Functions and Data Augmentation for Few-Shot Object Detection Abstract 现阶段的少样本学习技术可以分为两类:基于微调(fine-tuning)方法和基于元学习(meta-learning 阅读全文