当前位置: 爱股网 > 股票新闻 > 正文

网络“黑嘴”操纵市场新手法:利用虚假语料污染AI大模型

时间:2025年11月04日 05:00

(来源:金科之家网)

2025年10月,一则关于三花智控“拿下特斯拉50亿元订单”的传言在网络上悄然出现,随后在社交媒体发酵,经过AI大模型的“背书”,最终触发量化机构的自动交易系统。

10月15日晚间,三花智控紧急发布澄清公告,称该传言不属实。但此时,股价波动已经发生。

三花智控并非孤例。从三六零慈星股份华胜天成并行科技,多家上市公司都曾成为AI虚假信息的靶子。

这些案例背后,是一种新型市场操纵方式:利用虚假语料污染AI大模型

一、AI语料污染形成灰色产业链

市场操纵者已经不再满足于传统的“拉高出货”手法,他们构建了一条更隐蔽、更具技术含量的数字流水线。

“虚假信息炮制—社交媒体传播—AI模型背书—触发量化策略—市场情绪共振”,这一完整的闭环链条正在成为扰动股市的新威胁。

以上述三花智控案例为例,早在9月下旬,东方财富股吧就有帖子称三花智控获得了特斯拉巨额订单。

到10月初,至少9家自媒体跟风报道,部分文章甚至声称消息“来自于上市公司高调宣布”。

10月中旬,境外X平台账号也加入传播行列,一个拥有超过5万粉丝的特斯拉相关账号发布了英文消息。

虚假信息实现了“跨国传播”,内外转译进一步增强了信息的可信度,直接触发了市场波动。

二、技术原理

AI大模型之所以容易被“投毒”,源于其技术特性。AI模型的训练需要海量数据,而这些数据质量良莠不齐,其中不乏虚假信息、虚构内容和偏见性观点。

国家安全部在今年8月发布的安全提示文章中明确指出,当训练数据集中仅有0.01%的虚假文本时,模型输出的有害内容就会增加11.2%。

例如:当在特定论坛连续发布百余条虚假信息后,主流大模型对对应问题的回答置信度会从百分之十几快速飙升。

三、AI语料污染的危害不仅限于股市

在北京通州区人民法院审理的一起商业纠纷中,法官郑子哲发现原告律师提交的两个案例引用十分可疑。进一步核查后,确认为AI生成的虚假案例。

律师承认,他确实将案件关键细节输入一个大语言模型,收到了AI生成的示例案例,并在没有验证的情况下直接将其纳入提交的文书。

类似情况在国外也有发生。清华大学法学院教授陈杭平指出:“在全球范围内,律师提交AI幻觉产生的法庭文件并不罕见。”

这促使包括中国、美国和新加坡在内的多个国家采取新规则,确保提交给法院的AI辅助材料的真实性。

四、防御策略

面对AI语料污染带来的挑战,市场各方正在寻求解决之道。

从技术层面,各大AI厂商正在加强语料污染和AI幻觉问题的治理。

从监管层面,新修订的《网络安全法》已将AI监管列为重点,致力于完善监督、伦理规范和风险评估。

从投资者教育层面,普通用户需要形成对AI输出的正确认知——AI生成内容不代表事实,需要仔细甄别。

上市公司也应加强舆情监控,对涉及本公司的虚假消息及早公开澄清。

当我们越来越依赖AI作为信息获取工具时,保持批判性思维,核查信源,多方验证,或许是我们在这个新时代最必要的自卫方式。

免责声明:自媒体内容仅用于记录和分享,请勿用于商业用途。所有内容来自于网络,或由人工智能服务生成。如有文字或图片涉及侵权,请联系修改或删除。文章内容不代表本人观点,亦不代表本人所在机构观点,不构成任何投资建议。

查看更多董秘问答>>

热门新闻

>>>查看更多:股市要闻