
照片
截至20240904,现能获取的版本,需使用者自备图片数据集训练后才可使用。关键在于:这里的对抗并非是给图片加噪点等让图片无法用于换脸的预防反制手段,而是告知图片伪造的可能性大小。这种方式大概很难说是反制。判断敏感
照片真假,本就是
犯罪分子设下的伪命题,针对此见招拆招,实则被牵着走。并且,这里还潜藏着只有
照片真假能证明受害者清白这种受害者有罪论。在我看来,这类敏感
照片都可当作伪造品。由于其内容敏感,按规定必须得到许可才能使用,那么在未获许可时,这类
照片本身就是不真实的。github地址在此。简单来讲,开源的只是个示例(demo),很适合初入行者复现文献。不过,其未直接表明训练所用数据集的具体来源。
不过,看下面的trAIn.txt,这好像是学术圈内部使用的公开数据集。
然后我们可以看看这个模型训练好后的实际作用。按照作者的描述:

犯罪
简单来讲,可据此判断一张图片是否为伪造的。在对抗Deepfake
AI换脸时,这一点的用处感觉不大。这里好像隐含着只有
照片为假才能证明
照片对象清白的意思,在我看来,这个逻辑有点苛求完美受害者。要是
照片并非伪造,而是未经授权流出的,这些女生其实也受到了很大伤害。当然,这在后期定罪过程或许有一定的规范意义。