证券时报记者 谭楚丹 孙翔峰
当前,越来越多的投资者倾向通过以DeepSeek为代表的大模型来寻求关于股票与基金的投资建议,新的问题也随之而来——通用大模型荐股荐基是否应纳入证券投资咨询牌照监管?
这一问题之所以引发关注,一方面,是因为当前利用AI平台提供的投资建议来买卖股票或基金的投资者逐渐增多,这种情形可能构成了证券投资咨询活动;另一方面,当前大模型为通用大模型,更多体现的是“工具”属性,技术中立或又成为不纳入证券投顾牌照监管的理由。
对此,证券时报记者采访多名券商人士了解到,其中既有“应统一监管”的呼声,也有认为管理不宜“一刀切”的观点。
未来,监管部门将在AI投顾业态中扮演怎样的监管角色,并探索出有效可行的治理路径,值得持续关注。
1 是否纳入投顾牌照监管引争议
今年春节以来,陆续有投资者向DeepSeek-R1、豆包等寻求关于股票与基金的投资建议。针对这一现象,有证券从业人员向证券时报记者提出困惑——AI大模型在提供股票或基金的投资建议时,是否应该持有投顾牌照?
证券时报记者注意到,在豆包APP平台上,不同入口获取的证券投资咨询结果呈现显著的监管差异。比如,当记者向豆包要求推荐股票时,豆包会给出多只股票的具体建议,包括仓位、买入价等。而当记者向华泰证券在豆包APP上线的股票智能体“华泰股市助手”提出相同问题时却遭遇“碰壁”,并未提供直接的买卖建议,但会给出资金面、技术面等信息供投资者分析决策。
同一APP上出现截然不同的咨询结果,反映出不同入口背后的主体属性差异。华泰证券作为持牌金融机构受到监管规定的约束,而从用户需求的角度看,豆包的直接荐股建议可能更有吸引力。那么,以DeepSeek、豆包为代表的大模型,是否应该纳入证券投资咨询牌照监管呢?
部分受访的券商人士认为,通用大模型应纳入投顾牌照监管。华福证券有关负责人表示,尽管目前通用大模型荐股荐基的建议尚未商业化,但已对投资者的决策产生了影响,纳入监管能够确保通用大模型提供的投资建议具备专业性和合规性,进而避免误导投资者。国信证券相关人士也认为,通用大模型的荐股荐基应该与现有监管保持一致,要对客户的适当性进行校验,所提供的投资建议可能会对市场交易价格产生冲击,要进行统一监控。
不过,也有券商人士认为要多方面考虑问题,不应“一刀切”。银河证券财富管理首席投资官、产品中心总经理张嘉为谈到,仅从AI技术本身来看,通用大模型更多具备的是“模型”和“工具”的属性。在未商业化的前提下,投资者在自主使用的过程中,并无需要纳入投资咨询牌照监管的必要性。“不过,如果有机构依据其模型搭建商业化模式并给出具体的投资建议,或者未来荐股行为实现商业化,本质上则属于投资咨询行为,理应纳入投资咨询牌照监管。”
国泰君安相关人士也有类似观点。他谈到,以DeepSeek为例的通用模型平台主要以数学、物理、常识等问题进行训练,并非以金融投资问题训练,模型在证券行业中的应用能力是“模型泛化”的成果之一。“如果对这些平台做‘一刀切’管理,从某种角度上来说反而会限制模型能力的进一步发挥,对模型的进化提升存在潜在的负面影响。”
在上述国泰君安人士看来,金融服务的风险传导机制决定了监管应聚焦“行为实质”而非“技术形态”,比如以专业服务平台为代表的智能投顾平台、以证券机构为主体在智能体平台建立的对客智能体(Agent)就需要纳入投顾牌照监管。因为这些平台达到输出投资建议的三个标准,即具有明确指向性,比如提供个股或者基金代码;形成持续性服务,而非用户单次测试;产生实质影响,用户会据此交易。上述三点,已触及监管边界。
2 券商建言加强算法监管
除了主体属性存在争议外,在合规性方面,通用大模型提供投资建议背后的底层数据、算法模型、生成的投资逻辑和相应结论等是否应该纳入监管,以及技术中立能否豁免合规责任等话题,也存在讨论的空间。
近期,“数据污染”的消息屡屡出现。有用户反映,DeepSeek在推荐基金时,所抓取的信息来源包括某基金产品的广告投放。“AI幻觉”问题也多次被曝光,即模型生成与事实不符、逻辑断裂或脱离上下文的内容。在Vectara HHEM人工智能幻觉测试中,DeepSeek-R1显示出14.3%的幻觉率,超过行业平均水平。
对此,有部分券商人士认为,对于用户而言,AI仅仅是多了一个参考信息的来源,并且用户输入不同的提示词后也会产生差异较大的分析结果。从这个角度看,AI技术是中性的,在其提供的最终结论中,判断与选择仍取决于用户本人。
也有券商人士持有不同意见,他们认为AI输出内容的合规与可信非常重要。前述国信证券相关人士表示,思维链输出的交互形态,潜意识引导了用户的认知,让用户更加容易认同分析的结果,但同时也让大模型的幻觉变得更加隐蔽。“深度使用DeepSeek就会发现,金融数据容易被错误引用,对于原始信息的真实性无法求证,生成内容容易被搜索结果误导,因此需要相关监管部门加强对该领域的监管。”
中信建投证券相关人士也表示,目前,将AI直接用于投资咨询存在技术风险,算法模型和资产配置逻辑存在不稳定、不可靠等风险。
前述华福证券有关负责人建议,监管可考虑要求平台披露算法逻辑和风险提示,能够让投资者更清楚地了解投资建议的依据和风险,从而维护金融市场的稳定和公平。
东莞证券相关人士表示,在智能投顾业务监管方面,建议加大智能投顾监管“沙盒”试点,加快智能投顾业务属性与准入管理具体规范的制定。同时,鉴于我国资本市场个人投资者占比较高的情况,AI的发展应用应参考当下对高频量化交易的监管策略,依据市场结构、流动性和价格发现产生方式等对智能投顾的相关监管策略进行分类研究,既不可“一概而论”也不能“听之任之”。
3 趋同性风险属多虑吗?
此外,有市场观点称,伴随AI荐股未来得到广泛应用,可能会引发投资者群体性操作,导致市场波动加大。对此,多名受访人士认为,趋同性风险确有存在的可能,但发生的概率不大,市场不必多虑。
前述华福证券有关负责人认为,由于很多机构可能基于相似的市场数据、算法模型和理论基础来构建自己的AI投资系统,当市场出现某些特定信号时,大量基于相同算法的投资决策有可能同时发生。因此,需要谨慎看待AI在投研与投资咨询领域的运用。
“在防范方面,我们可以通过监管引导机构在算法设计上增加差异化,鼓励机构结合自身的研究优势、数据特色来优化算法。同时,加强投资者教育也至关重要,要引导投资者理性看待AI投资建议,不能盲目跟风,从而降低因算法趋同带来的市场波动风险。”上述华福证券有关负责人称。
张嘉为认为,趋同性的出现取决于三方面是否发生共振,一是具体应用场景和应用模式,二是底层数据来源范围,三是客户提问的提示词。在实际展业中,三者共振导致趋同性的概率不大,因为持牌金融机构通常多方面提升策略多样性、交易分散性、模型多样化协同、业务技术深度融合及风控预警等。同时,各家机构拥有不同的客户数据、投顾数据、资讯数据等,数据库一致性的概率不大。此外,客户千人千面,其提问的提示词高度重复的概率也不大。
平安证券经纪业务事业部相关负责人以量化交易的策略发展为例,称这是类似一个循环的过程,即发现策略、获利、失效、再挖掘新的策略。“在技术升级的初期阶段,可能会出现‘羊群效应’,比如大家用的模型、数据源或者训练方法都差不多,短期内引发趋同交易,但这也可能导致策略收益下降甚至亏损,进而推动市场从同质化走向差异化。”该负责人表示。