韩国女孩被AI到成人片!

发布日期:2024-09-19 18:18

来源类型:西瓜视频 | 作者:村井国夫

【澳门金牛版正版资料大全免费】【新澳开奖记录今天结果】【2024年新澳门王中王资料】【管家婆最准一肖一码】【新澳彩开奖结果查询】【新澳最新开门奖历史记录】【4949澳门免费资料大全特色】【2024今晚澳门特马开什么号】【澳门天天彩正版免费资料大全】【2O24澳彩管家婆资料传真】
【494949澳门今晚开什么】 【2024新澳免费资料】 【新澳2024年精准一肖一码】

这几天,微博首页被韩国女生的求助信息刷屏了。

在此,为不了解情况的朋友梳理一下来龙去脉。

一、8 月初,韩国网友震惊地发现“N 号房”事件似乎卷土重来。

在 Telegram 上,一个利用 AI Deep fake(深度伪造)技术制作并传播色情图像的聊天室吸引了 20 多万男性受众。

这些人偷拍身边的女性,将她们的脸或躯体合成到成人影片里。

再把这些淫秽图像传到群组中供人“品鉴”和意淫。

被深度伪造的对象包括女兵、女教师、女护士、女大学生以及未成年小女孩。

而犯罪者大多是青少年。

志愿者卧底发现,几乎每所学校都有一个秘密的男性聊天室。

某些群组成员甚至要求新加入者必须提交自家女性家庭成员的全身照片作为“投名状”。

于是,一些男孩将偷拍手段用到了自己的姐妹甚至妈妈身上。

更有甚者,趁着妹妹睡觉去掀她的裙子。

这件事情在韩国造成了极为恶劣的影响。

500 多所学校被牵扯其中,就连延世大学、首尔国立大学和高丽大学等名校也有师生参与其中。

年轻学生对这种深度伪造的“游戏”乐此不疲。

他们不但不认为这是龌龊的犯罪行为,反而责怪举报者小题大做、不懂幽默。

当记者询问他们为何要用熟人照片时。

他们回答:“这样更真实。”

记者追问:“你们不怕被抓吗?”

他们直接回怼:“只有傻瓜才会被警察逮住。”

境外网站的隐蔽性让他们有恃无恐,而这种心态让韩国女性极为愤怒。因此,一群韩国女生注册微博,呼吁外国人关注韩国正在发生的事情。

那么,这种下作的犯罪行为,韩国女生为何不找韩国总统和韩国警察处理,反而跑来中国求救呢?

这是因为韩国女性对韩国的公权力失望透顶。

她们深知,无论是韩国警方还是尹锡悦政府,都难以铲除这种恶劣且隐蔽的性剥削。

一方面,韩国总统尹锡悦本就是靠着“反女权”言论当选的;

另一方面,李胜利的所作所为只受到了很轻的处罚。

据知情人士透露,韩国青年(15 - 29 岁)男性人口有 430 万,而 Deepfake Room 的用户有 22 万。

也就是说,差不多每 20 个男性中就有一个是“房中人”。

由于法不责众。

警方处理案件时往往只抓主谋,很难惩处每一个用户,一些狡猾的人趁机钻空子跑路,躲避法律制裁。

与此同时,考虑到事件的影响面实在太广,就连韩媒都开始对这件丑闻进行冷处理。

韩国女士们直言:“韩国女性没有国家。”

“我们生活在一个无法有效惩罚或预防针对女性犯罪和暴力的社会中,失去了日常生活的安全感,仿佛生活在一个没有国家的状态中。这样的社会还有存在的必要吗?”

除了中国,她们也在其他国家的社交平台发帖求救,希望借此得到全世界女性的声援。

同时也希望国际舆论能向韩国政府施压。

我们为何要关注这件事呢?

因为被换脸的恐怖故事不仅会发生在韩国女性身上,还可能发生在我们每一个人身上。

没有管制的深度伪造技术可以轻松毁掉每个人的生活。

将女性的脸换到色情片上的现象,显然不止出现在韩国,中国、美国、欧洲等国家和地区的女性都遭遇过类似的事情。

2017 年,有人在 reddit 上开设换脸版块,专门和“志同道合”的网友一起,将女演员的脸庞深度伪造到色情影片上,受害者皆是知名女性艺人。

而且,这甚至已经形成了一条产业链。

有人收钱定制这些女明星的换脸淫秽视频牟利。

深度伪造技术带来的问题甚至不止与性有关。

我们不妨设想一些场景。

如今很多年轻人在外工作,留下父母在老家,平时沟通主要靠网络,最常用的就是视频通话。

要是这视频被伪造了呢?

当父母远在千里之外,突然接到你的求助电话,紧张不安地说自己遇到了麻烦,缺钱花,希望他们能帮帮你,父母会是什么反应呢?

着急之下,他们除了先打钱还能做什么呢?

要知道,联系方式是平时的联系方式,视频对面的人是他们熟悉的你,说话的声音也没有区别,他们除了担心,又怎么会怀疑你不是你呢?

毕竟父母对这些科技知之甚少,很难防备。

还有很多可能的情况。

如果有不安好心的犯罪分子掌握了你的形象以及更多的身份信息呢?

他们完全可以拿着你的身份去网恋、去裸聊、去作为杀猪盘的素材、去搞诈骗、去犯罪。

反正这些事现在都可以通过网络来完成,套上 AI 这个壳子,他就成了你。

而且,现在的 AI 技术都可以做任何表情和动作了,直接解锁银行卡的面部识别信息恐怕也不在话下吧。

要是直接以你的名义去贷款,然后把钱卷走后留下一屁股债。

你又该如何应对呢?

恐怕要等某天突然有人敲开大门来讨债,才知道真相吧。

要是那些公众人士被 AI 化就更麻烦了。

你看现在电视上那么多明星代言卖货直播,好多人趋之若鹜,可万一那些视频背后不是本人,而是 AI 伪造出来的呢?

反正输入什么,AI 就能说什么。

那某些三无产品、金融产品等,岂不是想让谁站台就能让谁站台,谁更有号召力就让谁来代言?

简直无法无天。

搞不好还有人趁机打着某些公众人物的旗号,去到处寻求合作,让人家先交定金,或者私下搞些传销、传教之类的违法活动。

反正这种大名鼎鼎的重要人物肯定是见不到面的,只有视频让大家沟通也很合理啊。

谁知道剥开 AI 那层皮,里头到底是谁呢?

更糟糕的是。

如果不法之徒掌握了某些重要人士的形象,他们完全可以躲在背后,以这些重要人士的身份去发表很多重要言论,来引导舆论、重塑规则。

感觉世界都要乱套了。

我们还可以多想一层。

万一有人用魔法来对抗魔法呢?

比如故意露出破绽,让人以为视频是 AI 做出来的效果,好显得自己是被陷害的无辜。

但其实根本就是本人的千层套路呢?

而且,现在的技术肯定不是 AI 的巅峰,再这么发展下去,搞不好还能结合全息技术,搞出那种肉眼都分辨不出来的效果,一个人眨眼就变另一个人。

那时候,别说影像了,眼见都不一定为实。

我站在我妈面前,我妈可能还得和我对上八百个暗号,才能分辨出来我到底是我,还是骗子。

光是想想,就觉得更毛骨悚然了。

四、说这么多,并非危言耸听,更不是杞人忧天,现在国内外都已经有很多案例了。

有的仅仅依靠 AI 配音,就能大骗特骗。

美国 CBS 电视台做过一期节目,现场展示黑客通过克隆声音来窃取信息的过程。

整个过程可谓是迅雷不及掩耳之势。

仅用了 5 分钟,对方就通过 AI 克隆的当事人的声音,并且通过工具替换了手机来电显示,从而成功骗过了身边的人,获取了相当多私人信息。

国内的“靳东”骗局也一直存在。

很多直播间循环播放着明星的视频,再加上后期配音的旁白,就吸引了很多阿姨的关注。

阿姨们听到声音误以为这就是真的明星,没想到都是骗子利用 AI 软件模拟出来的声线,目的当然只有一个——骗钱。

有人胃口更大,不甘心只骗普通人的小钱,还要骗公司的大额投资。

于是伪装出男明星的声音去谈合作,好在公司比较警惕,才没能让对方得逞。

现在又有了 AI 在视频方面的辅助,骗子更是如鱼得水,让人防不胜防。

前几天看综艺,黄晓明说曾经发现自己在不知情的情况下,给某个品牌代言了。

不仅有自己和刘亦菲参加品牌活动的视频,还在现场讲了很多品牌相关的内容。

但他本人对此却毫无印象,就很恍惚。

后来才知道,这视频是用 AI 做出来的,发言也都是 AI 操作的结果。

连本人都差点被忽悠,何况看视频的其他人呢?

现在某些直播间开始用 AI 换脸明星搞带货,不知情的人又怎么能区分呢?

国外也一样。

斯嘉丽前几天告了一名 AI 程序开发者,因为对方直接用她的形象和声音来打广告。

明明是《黑寡妇》的幕后花絮,摇身一变,就成了 AI 程序的宣传广告。

好一个偷天换日。

网络上本来就很容易出现那种看图说话的假消息,经常一张图下去八百个故事就编出来了。

如今有了 AI 技术,你想编什么故事,它就给你凭空造出什么,真与假、是与否的边界更加模糊。

反倒更方便了造谣传谣的人。

也给了不法之徒发挥空间。

有人分享过更恶劣的被骗经历。

骗子截取到他的人脸识别视频,然后利用 AI 换脸技术,拼接出一段裸聊视频,然后威胁当事人要把这视频群发给他的通讯录好友们。

即使当事人知道自己并没做过这样的事,也会在一瞬间陷入恐慌,然后被骗子榨干价值。

或许你会说不要相信网上那些人就好,但是万一 AI 伪装成你熟悉的人来寻求帮助呢?

福州的郭先生就遇到过这种情况。

一位好友打来微信视频,请求帮助。

虽然对方一开口就是 430 万这样的巨款,但微信视频已经打消了他的怀疑,他二话不说转了钱。

哪知道,这年头视频也能造假。

视频对面的也不是真朋友,而是披着 AI 外皮的骗子,只是用了换脸和拟声的手段。

说起现在这些套路,就连年轻人都难分辨,每每看到都要感慨一句,学无止境。

要是那些本就对网络科技知之甚少的老年人碰到,就更容易上当受骗了。

反倒是骗子,总是走在学习新技术的前沿。

虽然都说互联网是虚拟的,但很多时候构建起互联网的底层逻辑却是真实和信任。

这下可好,人与人的信任岌岌可危。

名人会被深度伪造出自己从没讲过的话,喜提鲁迅同款待遇。

上班族会被深度伪造出的老板骗得云里雾里。

之前就有个公司财务,被拉进一个视频通话群组里,里面每个董事会的老板都在。

然后财务就被“换脸”老板们骗走了 2 亿多港币。

老人会被深度伪造出的子女骗到倾家荡产。

普通人会被深度伪造出的莫须有视频弄得百口莫辩……所有“真相”都可以被伪造,所有人都可以被技术玩弄于股掌之间。

AI 时代,没有真相。

在这种情况下,我们该怎么办呢?

“科学技术是第一生产力”。

这当然是事实,毕竟我们直白地享受着科技发展带来的好处。

与此同时,我们不该忽略科技可能带来的破坏性。

伴随着高速的科技发展,社会结构迎接着巨大冲击,固有的生产模式更频繁地遭遇被淘汰的命运,无法及时跟上发展的人经历着动荡。

我们总说科技的发展是双刃剑,但它的剑刃究竟指向哪方,是由人来决定的,而非由技术。

所以,比担心 AI 技术的失控与风险更重要的是,加强对 AI 生成内容的监管,增加限制。

总好过让它不受约束地自由发展。

毕竟现实中,开锁的师傅都得去公安局备案,更何况是这些更不受控的内容呢?

Henderson:

6秒前:搞不好还有人趁机打着某些公众人物的旗号,去到处寻求合作,让人家先交定金,或者私下搞些传销、传教之类的违法活动。

Alex:

3秒前:阿姨们听到声音误以为这就是真的明星,没想到都是骗子利用 AI 软件模拟出来的声线,目的当然只有一个——骗钱。

科钦·哈尼发:

1秒前:在 Telegram 上,一个利用 AI Deep fake(深度伪造)技术制作并传播色情图像的聊天室吸引了 20 多万男性受众。

陈建华:

1秒前:虽然都说互联网是虚拟的,但很多时候构建起互联网的底层逻辑却是真实和信任。