刘晓庆和雷军,都掉进了这个坑

天堂影视 内地明星 2025-04-08 20:19 1

摘要:说有一个视频账号,发了很多刘晓庆的视频,但里面很多话明显不是刘晓庆说的,应该是AI生成的。

文丨李月亮 七野

每晚八点四十 陪你看世事

AI是很美好的东西。

但也可能是伤人的利器。

01

李月亮 ☽

前阵子,有个粉丝给刘晓庆留言。

说有一个视频账号,发了很多刘晓庆的视频,但里面很多话明显不是刘晓庆说的,应该是AI生成的。

比如这个账号里,有个刘晓庆演讲的视频。

她在里面讲自己“出狱当天连吃了三碗炸酱面”。

——这是根本没有的事儿。

刘晓庆自己点进去一看,也惊了——

“天哪,画面是我,声音很像我,但不是我!

这是怎么做到的?

以后大家不会搞不清哪个才是真的我了吧?”

简直是现实版的真假美猴王。

关键假账号流量还很大,点赞成千上万。

评论区也非常热闹,好多不明真相的网友在热烈发言。

更可怕的是,这种号还很泛滥。

还有内行的网友告诉刘晓庆,现在的AI只要输入你的形象和台词,就能自动生成你的视频。

做视频的人想让你说什么,你就说什么,想让你卖什么,你就卖什么。

你说吓不吓人。

02

李月亮 ☽

不得不说,现在AI的发展堪称炸裂。

经常上网的人,每天都会不知不觉地看一堆AI生成的视频。

有些AI视频没啥坏处,就是图个乐呵。

比如甄嬛举起“屠龙枪”。

比如林妹妹大战贾宝玉。

这些视频一看就是假的,大家乐呵乐呵就过去了。

算是人畜无害。

而有些AI视频,问题就大了。

比如造假重灾区——AI小孩和AI宠物。

这种虎头虎脑的AI大胖孙子,很多人都刷到过。

打开短视频软件,一排白白胖胖的小孩朝你招手。

驮着大猪蹄,顶着烤乳猪。

又好看又能干。

三岁就能摘菜、洗菜。

一个人做出四菜一汤。

这群大胖孙子把很多老年人哄得挪不开眼。

动不动转发到家人群,“看看人家这小孩”。

言外之意,敦促儿子儿媳女儿女婿都学着点,好好教教自己那个不成器的娃,人家三岁都能做四菜一汤了,你瞅瞅你养那个,鞋都穿不上。

咱就说这玩意得引发多少家庭矛盾。

有位网友过年回家探望老人。

发现奶奶根本不搭理他,反倒对着手机里的假孙子哎了半个小时。

他说那是假的,奶奶根本不相信。

导致亲孙子在家里的地位岌岌可危。

现在“AI大胖孙子”,已经流传到动物界了。

小狗炖鸡汤。

小猫摆摊卖炒饭。

最常见的是一只小橘猫。

一会儿救老奶奶,一会儿救白娘子。

可给它忙坏了。

03

李月亮 ☽

好在,这种AI视频毕竟好识别,危害还算小。

很多卖药带货的AI数字人,才贻害无穷。

像这种一头白发的“金牌老中医”。

经常在镜头前娓娓道来,传授她的养生技巧。

乍看很让人信服。

但事实上,她是个AI生成的“数字老专家”。

从形象到声音,到文案,到头衔,都是凭空伪造的。

是个彻头彻尾的冒牌货。

而这种“数字专家”们说的话,更是蒙人。

看似有道理,实则比鬼话还离谱——

按揉大拇指的穴位可以治愈近视。

拍打左肩膀能彻底治好心脏病。

每天吃三颗红枣,贫血立刻好。

喝绿豆汤包治百病,所有药都让你停掉……

所谓“独家秘方”,其实都是他们瞎编的。

所谓“临床研究数据”,根本没有人临床研究过。

你要是信他们,指不定掉啥坑里去。

有网友试过了。

跟着上面那个老太太做养生的动作,最后会变成这样。

更别提跟着她求医问药了。

@小宇在农村

这种“数字专家”,很有迷惑性。

有时候打眼一看,真看不出是假的。

比如这位哥们。

有皱纹,有痘印,脸上还出了点油。

看面相就是业主群里的一个普通邻居。

但他其实是个挺出名的AI人,叫“王建国”。

别看其貌不扬,走的还是“蛊惑人心”的情感赛道。

打开短视频平台,王建国从花丛里钻出来。

嘴甜心暖,卯着劲哄老姐姐们开心。

时不时还动一动感情。

眼眶微微泛红,害羞地袒露心意:

“连睡梦里,我都会情不自禁地,叫着你的名字。”

虽然没办法敞开自己的心房。

但是……

他可以向老姐姐们打开橱窗。

他的视频其实有平台的AI标识。

但是很不显眼,一般人都不会注意到。

不少老姐姐被王建国迷得七荤八素,咔咔下单。

后来,王建国还“拖家带口”地上岗。

让他的AI儿子、AI闺女都开始发类似的短视频。

带货效果也不错。

这一家子根本不存在的AI人,不知道给幕后主人赚了多少钱。

这样的AI人,现在越来越多。

喊几句“宝宝姐姐”,就能赚得盆满钵满。

而他的姐姐们可能一直不知道。

你为之洒钱的弟弟,根本不是人。

因为AI是机器生成的产物。

一旦出事,账号注销跑路。

受害者要找到机器背后的人维权,十分困难。

04

李月亮 ☽

刘晓庆遇到的陷阱,是AI技术的进阶版,叫“深度伪造”。

这个技术,用一张真人照片,就能生成说话、唱歌、跳舞的视频。

并且做得惟妙惟肖。

刘晓庆、靳东、雷军……很多知名人物都是受害者。

前阵子,张伯礼院士也在央视辟谣。

说有不少人用他的形象做AI广告,带货护肤品、卖药。

他气愤又忧心:

“对我的影响还是第二位的,最可怕的是这些东西误导消费者,让老百姓买到假药。”

更让人忧心的是,这个技术也会被用在普通人身上。

北京的69岁徐大爷,因为拍了条视频。

莫名其妙被人用AI改造成了“90岁患癌老人”。

通过讲述离奇的经历,骗网友买抗癌神药。

有一天,他在天坛公园锻炼,遇到了看过他广告的人。

那人气势汹汹地问他赚了多少黑心钱。

他才知道,自己早就被“上链接”了。

05

李月亮 ☽

那么如何防范这无孔不入的AI坑呢?

其实也不难。

学会以下几个小技巧,基本就不会踩坑了:

第一,最直接的办法,就是去看视频下方有没有AI标识。

大部分AI视频都能被系统识别,贴上标签。

第二,对于没有标识的视频,可以观察他们的面部特征。

AI一般会出现一种“机器长相”。

皮肤光滑、五官不协调、没有清晰的头发丝儿。

第三,还可以通过一些细节看出AI痕迹——

眨眼频率过快或者过慢。

牙齿边缘过于整齐。

瞳孔颜色两边不一样(比如一个黑,一个棕,因为融合了不同人的脸)。

第四,看他说的话、做的事是否符合常识。

对于违反常识、又说不清来源的言论,不要轻信。

第五,如果有亲友打来电话或视频借钱,要当心AI骗局。

可以要求他在镜头前挥挥手,观察脸部有没有明显不正常的抖动。

或者问一些只有对方才知道的问题,验证那边是不是本人。

第六,求证AI问题的时候,不要过于相信它。

现在我们经常会找AI问各种问题。

这就需要有一个基本常识:

AI亲口回答你的内容,不能完全相信。

因为AI技术背靠的信息池,像一本巨大的百科书。

所有网友说的话,不管真假,它都照单收录。

所以,它可能会天马行空地说一些根本不存在的东西。

而且说得有鼻子有眼。

也因为信息被污染,AI有时连一些简单的问题都答不对。

告诉你过完一轮12生肖,需要13.5年。

1000天前是2023年。

有时是因为问到了知识盲区。

触及了AI的自由创作机制,让它开始一本正经地胡说八道。

清华大学的研究团队发现,AI的幻觉率高达30%。

差不多问它三次问题,它就可能犯一次迷糊。

因为内容生产的机制存在硬伤,哪怕最先进的AI,都逃脱不了出现幻觉的麻烦。

如果你一定要使用AI查找信息,可以借助“三角求证法”

问三个AI产品同一个问题。

一般会得到比较靠谱的答案。

这个时代,AI已经成为人们的得力助手。

但我们在利用AI的同时,也要提升对它的认知。

避免被AI蒙蔽。

毕竟越好的东西,越可能是伤人的利器。

谢谢你看完文章,如果你也认同,还请点亮【赞】+【在看】。

──── 全文完 ────

来源:李月亮说

相关推荐