详细介绍:【irregular swap】An Examination of Fairness of AI Models for Deepfake Detection
An Examination of Fairness of AIModelsfor Deepfake Detection
会议/期刊:IJCAI 2021
作者:
背景
早期的针对深伪数据集类别(种族、性别等)属性的研究
深度学习模型可以根据受保护的类别(如种族和性别)进行区分。
当一个人的脸被交换到另一个不同种族或性别的人时,用于创建deepfakes作为正训练信号的方法往往会产生“不规则”的脸。
这导致检测器学习前景脸和虚假之间的虚假相关性。
【在机器学习中,越来越多的人担心有偏见或有缺陷的系统会产生意想不到的后果,这必须对数据集和模型进行仔细彻底的检查。】
points
评估受保护的亚组中存在的深度伪造数据集和检测模型的偏见。亚组——》子组</

浙公网安备 33010602011771号