发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 794 0 昨天 09:07
可能有听说过,谷歌有打击CSAM的相关措施,一旦触发,账号直接会被封禁。在美国这种国家,这种措施很有必要。
不过问题在于,识别CSAM的机制经常会发生误判。
下面有两个链接,算是在网上知名度比较广的,实际上相关的数量更多
  • 记者拍下孩子病况照片发给医生咨询,账号被封
  • 印度一位用户上传奶奶给自己幼年洗澡照,同样遭封号
前几天reddit上有人发帖,用nano banana生成的拥抱儿时的你的图,也被判定为CSAM,账号被封
我自然支持所有平台对CSAM重拳出击,不过目前的审核机制是自动化判定+封号+无法申诉。我上面发的两个链接,都是一两年前的了,而且知名度挺高的,谷歌依然拒绝回复账号。
为了避免不必要的损失,奉劝各位不要用nano banana做那个拥抱儿时自己的图,也不要用nano banana处理任何跟儿童相关的图。同时,不要在任何网络平台或者网盘里存任何儿童相关的图片,不管是你自己的,还是家人的。
网络上并没有隐私。

──── 0人觉得很赞 ────

使用道具 举报

毕竟是 CSAM 呀,
记得之前论坛还有那个色盲题呢 。
感谢提醒~
让我想起那个用豆包抱孩子头像的人了
儿童性虐待材料(CSAM是Child Sexual Abuse Material的缩写 )  
好像nano banana的审核变宽松了,以前在2.0时代,图片编辑涉及小朋友的内容可是一点儿都不能有 。  
可以用指纹浏览器注册个新账号来玩。
感谢老友提醒
感谢大佬提醒
您需要登录后才可以回帖 立即登录
高级模式