弑母分尸案震惊世界,AI伪造语音骗过警察!
【导读】母亲被杀,尸体藏进洗衣机,女儿却用AI伪造她的声音、假扮她的样子,让世界以为她还活着。十天后,真相才浮出水面,竟是亲生女儿弑母,后用AI伪造母亲声音!AI没有杀人,却做了帮凶。我们该害怕的,是机器的失控,还是人性的冷酷?
一场AI协助帮凶弑母案,震惊了全世界!
10月6日,厄瓜多尔瓜亚基尔警方接到一起失踪报案。
报案人称,49岁律师Martha Cecilia Solis Cruz已经失踪了几天,但家人仍不断收到她的语音信息。语气温柔、内容平常,仿佛一切如常。

接通电话的另一端,AI版Martha称,「别再找我了,我很好」
十天后,警方在她的家中找到了尸体——被肢解成六块,塞进洗衣机与蓝色垃圾桶。
而那段语音,并不是她本人录下的。
嫌疑人,是她的女儿Andreína Lamota Solís。报案人,也正是Andreína自己。

寻人启事
她不仅亲手杀害母亲,还用AI生成母亲的声音、模仿她的外貌,在监控中伪装出她「仍然活着」的样子。
直到发现洗衣机里的遗体,警方才意识到:真正的帮凶,竟然藏在算法里?
AI伪装术:被算法掩盖的真相
10月6日,Martha的家人收到了她的语音。
那是一个普通的下午。她的声音一如既往,温柔、克制,还夹着一点催促的口气:「别担心,我晚上回来。」
而十天后,警方在却在洗衣机里找到了她的尸体。
声音是真的,语气也是真的,唯一不是真的——是那个人已经死了。
她的女儿,Andreína Lamota Solís,用AI复刻了母亲的声纹,合成多段语音发给家人。每一条消息都在维持一个假象:母亲还活着,母亲在忙,母亲一切安好。

在肢解母亲后,Andreína还多次上网搜索「如何分解人类的骨头」、「如何掩盖尸体的气味」。


更可怕的是,她还把自己打扮成母亲的样子,走出家门,出现在小区的监控中。
长发、墨镜、那条花裙子。监控里的人步态僵硬,却成功欺骗了所有人。
警方查看录像时,也认为这是Martha最后一次离开住所。

没人能想到,那其实是她的女儿。
案发当天,她还租了一间位于La Alborada的房子,只住了一晚。进门时,她穿着母亲的衣服;离开时,她变成了自己。
警方在比对监控后才发现这个异常。
调查负责人、生命犯罪局局长Galo Muñoz在接受采访时表示:
当我们确认她只租了一天的房子、并更换了服装时,我们就知道有问题。
十天后,警方破门而入。洗衣机里的蓝色塑料桶被撬开,空气里弥漫着腐臭,尸体被分成六块。

面对证据,Andreína没有否认。她平静地看着调查员,只说了一句:「是,我杀了她。」
在她的房间,警方还找到一张属于另一名失踪女性的银行卡。
她的手机里存着200GB数据,其中包含多段AI语音、训练素材和应用记录。
Galo Muñoz在报告中写道:
她冷漠、精密、具有操控欲。AI不是她的帮手,而是她的延伸。
于是,这场谋杀成了一出荒谬的戏剧:一个已经死去的母亲,在AI的帮助下继续发消息; 一个杀人者,靠算法维系幻觉。
而真相,在算法的粉饰中,被延迟了整整十天。
AI帮她隐瞒的,不只是罪行
Andreína的冷静,让所有办案人员都感到不安。
她没有崩溃、没有流泪,只在问讯笔录上签了自己的名字。
「是,我杀了她。」那一刻,她甚至没有抬头。
警方形容她算计、冷漠、具操控欲。可在案件调查里,真正让他们毛骨悚然的,不是她的刀,而是她用AI所构建的那场完美假象。
十天的时间,她让世界相信母亲还活着。
AI帮她模拟了母亲的声音,帮她维持了母亲的日常存在,帮她对抗现实。
在那段短暂的幻觉里,她不只是隐藏了谋杀,更是在制造一个新的现实。
有人说,她让AI成为了共犯。也有人说,她只是利用AI,延长了自己被逮捕的时间。
可对警方而言,AI的出现让一切都变了。它不仅掩盖证据,更削弱了真相的边界。

人类几千年来依赖的判断方式听觉、影像、直觉,如今都能被算法伪造。
FBI在去年的一份通告中写道:
人工智能被用于生成极具欺骗性的语音和视频素材,受害者难以凭经验识别真假。
在诈骗案里,这些假声音骗走金钱;而在这起杀人案中,它们骗走了真相。
AI没有动机,也没有恨,它只是执行。而人类,把那份冷漠拿来,作为自己的遮掩。
有人说,这场谋杀像是对未来的预演:技术本身是中立的,但当一个人决定让它撒谎,AI就成为人性黑暗的延伸。
真相与谎言之间,只隔着一层算法。
监管真空:AI共犯的灰色地带
当警方完成初步调查后,一个更棘手的问题浮出水面:AI在这场谋杀中,是否构成「共犯」?
Andreína亲手杀了母亲,这一点毋庸置疑。
但那段由人工智能合成的语音、那些假装母亲仍活着的影像,是否应被认定为「伪造证据」?
如果这些AI模型只是按照输入执行,那么,在法律意义上,它们是否也「无罪」?
目前,没有任何国家的刑法能直接回答这些问题。
在欧盟「AI法案」中,AI被划入「高风险应用」时才需承担合规义务;但语音克隆、身份伪造、deepfake造假等行为,仍处于监管灰区。

欧盟「人工智能法案」(EU AI Act)欧盟以风险分级监管AI:从被禁止的「不可接受风险」,到可自由使用的「最小风险」。这意味着,AI一旦进入「高风险区」,它的每一步行为都必须被追踪、可解释、可追责。
欧盟内部文件指出:
当AI被用于误导公众、篡改证据或操纵行为时,监管应聚焦开发者与使用者的双重责任。
美国也在尝试补漏洞。
2024年,多个州提出「Deepfake Accountability Act」草案,要求AI生成内容必须带有标识,违者可被追究民事责任。
但这些规定针对的,是娱乐与信息误导领域,还远未触及刑事层面的AI作伪。
也就是说,如果一名凶手用AI伪造声音来掩盖罪行,目前全球大多数国家的法律仍无法界定这种行为属于「技术滥用」还是「数字伪证」。

而在厄瓜多尔案里,AI的冷静执行,反衬出人类的冷漠。
它没有杀人,但让真相延迟。它没有撒谎,却制造出完美的谎言。
这正是监管最危险的盲区——当技术可以模仿情感、复制声音、伪造存在,人类要如何界定「真实」?
警方在案卷最后写下这样一句话:
算法没有情绪,也没有悔意。
而这句话,也像是写给整个AI时代的注脚。
十天的时间,一段AI合成的声音,替一个已经死去的人「复活」。
在算法的语言里,没有善恶,也没有悔意。它只是执行指令、维持幻觉。

这场谋杀被侦破了,但留下的空洞更深。警方试图定义AI在其中的角色,法律试图划清责任的边界,而真正危险的,其实是人类自己。
我们创造了能模仿情感的机器,却仍无法控制自己的欲望与恐惧。
Martha的死,只是一场开端。
未来的犯罪现场,或许不会再有血迹,只有算法、信号和被完美伪造的「人」。
技术没有罪。但当它开始替我们撒谎,真相就不再属于人类。
参考资料:
https://www.the-express.com/news/world-news/188412/dismembered-mom-s-remains-found-after-daughter-allegedly-used-ai-conceal-brutal-killing
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社