研究表明,AI图像生成器正在接受儿童露骨照片进行训练
根据一份新报告,人工智能图像生成器的基础中隐藏着数千张儿童淫秽照片,该报告敦促公司采取行动解决技术中的缺陷。这些图片使得AI系统更容易生成逼真的虚假儿童图片,并将社交媒体上全副武装的真实青少年照片转化为裸体照片,这对学校和公共安全构成了威胁。在模型流通之后也有减少滥用的机会。
面部识别搜索引擎PimEyes禁止搜索儿童面部照片
PimEyes是一家公共搜索引擎,利用人脸识别技术匹配在线人物照片,但最近他们宣布禁止搜索儿童的脸部照片。这一决定是出于对儿童安全的担忧,但他们引入的年龄检测AI系统目前仍然在改进中。这引发了有关技术和隐私问题的更广泛担忧,特别是在儿童保护方面。
用户绕过DALL-E 3防护机制 生成了儿童吸烟照片
OpenAI的最新图像生成AI,DALL-E3,被发现容易受到操纵,生成了引人注目的儿童吸烟照片。这一发现是由一位名为PeterGostev的LinkedIn用户分享的,他是英国NatWest银行集团的AI战略负责人。尽管技术取得了巨大进展,但AI系统的道德和法律监管仍然是一个具有挑战性的问题,需要不断的改进和监督。
AI技术漏洞!OpenAI的DALL-E 3易受越狱攻击 生成儿童吸烟照片
OpenAI的DALL-E3是一种强大的图像生成AI技术,但最新的事件表明,它并非没有漏洞。一位名为PeterGostev的LinkedIn用户发现了一种越狱技巧,成功生成了一组令人震惊的图像,显示儿童正在吸烟。在这个不断演进的领域,我们必须追求平衡,以确保技术的益处不会被滥用。