韩国传来一个大消息,
2026年5月7日,韩国政府宣布了一个大消息。他们要组建一个新的机构,专门对付“数字性犯罪”。什么是数字性犯罪呢?就是在公共场合偷偷拍别人,还有用人工智能技术把别人的脸换到不雅视频里。这个新机构名字很长,叫“数字性犯罪受害者综合支援组”,里面有好几个部门的专家。
韩国民间早就对数字性犯罪怨声载道,普通人出门逛街都要时刻提防被偷拍。
还有不少普通女性,莫名被人用AI换脸做成低俗影像,生活彻底被打乱。
韩国性别平等家族部公开数据显示,近年这类案件一年比一年多,暗地里没敢报案的受害者更是多得吓人。
很多年轻人随便在网上就能下载简易AI换脸工具,不用懂专业技术,几分钟就能合成虚假不雅视频。
就算警方一次次下架非法视频,封禁相关网站,新的链接和账号转眼又冒出来,根本堵不住。
不同部门各管一摊,办事流程绕来绕去,等到手续批下来,不良内容早就传遍各大网络角落。
这次把多个行业专家凑到一个新机构,就是想打破部门之间互相推脱、办事拖沓的老毛病。
但是韩国过往不少联合机构,看着阵容庞大,实际办事依旧扯皮不断,根本解决不了实际问题。
还有不少受害女生,遭遇侵害后不知道找谁求助,心理安抚、法律维权、经济赔偿全都没人牵头帮忙。
就算新机构打出一站式帮扶旗号,可长久以来官方公信力不足,很多受害者还是不敢站出来发声。
现在的做法大多是出事了再补救,从来没有从源头管控AI工具传播,也没做好青少年普法教育。
比如早前韩国首尔曾曝出校园深度伪造案,多名中学生跟风制作同学换脸视频,造成大范围身心伤害,来源:韩联社社会版报道。
任由低俗AI工具随意流传,只靠事后组建机构收拾残局,根本压不住数字性犯罪泛滥的势头。
各位读者你们怎么看?欢迎在评论区讨论。
