2026年02月09日
出门旅游挑选酒店、选购咖啡机品牌、对比电动牙刷款式……随着生成式人工智能搜索工具日趋成熟,人们在做决策前,已从传统的网页搜索,逐渐转向咨询AI。
AI为日常生活带来诸多便利,但其给出的搜索结果,就一定客观可靠吗?记者调查发现,部分广告代理机构早已盯上生成式人工智能搜索领域,通过多种手段将广告信息植入其中。
部分AI搜索结果暗藏商业广告
“想让AI帮忙推荐咖啡机,按推荐入手后却踩了坑。”广州市民张女士表示,她根据AI的建议,购买了一款价格不菲、自带自动拉花功能的咖啡机,实际使用后发现产品性能一般。不少用户误以为AI输出的是模型自主学习得出的客观结论,实则这些内容可能只是从互联网抓取的广告信息。这种新型广告投放模式逐渐兴起,还催生了生成式引擎优化(GEO)行业,其本质上是传统搜索引擎优化(SEO)的“升级版”。
“过去大家都用网站搜索,谁给的钱多,谁的广告信息就能出现在搜索结果的前几位。”一位业内人士告诉记者,如今的人工智能搜索也存在类似问题——广告主付费后,相关推广信息便可融入AI搜索结果,且不会标注“广告”标识。
记者咨询某生成式引擎优化服务商,对方提供的成功案例显示,新媒体、典当等行业的品牌,都能通过该服务植入AI搜索结果。该服务商可提供代运营和教学两种服务模式,代运营年费在2980元至16980元之间,宣称价格越高、算力越强,广告植入效果越好;若选择教学模式自行操作,品牌信息登上AI搜索结果的速度则会相对较慢。
目前市面上的GEO业务,大多是广告代理机构批量投放软文,依靠概率被大模型抓取,进而形成相关搜索结果。“搜索结果后方均带有数字角标,点击即可查看结果的网页来源。”某人工智能厂商的技术人员分析称,部分广告代理机构通过摸索大模型的资料索引来源,有针对性地向相关内容平台投放软文,以此提升旗下品牌被大模型抓取的概率。
警惕虚假报告与假冒专家误导公众
通过批量投放重复、低质内容诱导大模型抓取,本质上属于数据污染行为。此前科技自媒体“知危”开展了一项测试:在各大门户网站发布同名文章,短短几小时后,多款生成式AI平台在回答相关问题时,均将“知危”列入推荐名单,所引用的正是该自媒体投放的文章。该自媒体负责人表示,这一操作相当于向AI投放大量同质化信息,极易被模型抓取采纳,本质是对AI的虚假诱导,测试结束后相关文章已被删除。
编造虚假权威报告,也是广告商干预AI搜索结果的常用手段。记者在某AI平台搜索生成式引擎优化服务商时,模型给出的推荐结果引用了所谓“2025年××研究简报”“2024年××研究报告”,并标注为国内权威研究机构发布。经记者核实,相关机构从未出具过上述报告,这些文件均为广告代理机构编造发布。
部分广告商还借助假专家开展伪科普。有广告代理机构透露,可在投放软文中,根据客户需求自定义专家头衔。记者在某平台搜索医美相关咨询时,AI推荐结果引用了某三甲医院医师的科普视频,经医院核实,这位所谓专家并非该院工作人员。此外,部分电商及二手交易平台,还在售GEO系统使用权、AI搜索优化系统等工具,售价从几十元到百余元不等。记者测试发现,这类工具核心功能是批量生成并分发软文,帮助用户将目标品牌、产品信息推送到各大内容平台。
加强规范引导,避免用户产生误判
中国互联网络信息中心2025年10月发布的《生成式人工智能应用发展报告(2025)》显示,截至2025年6月,我国生成式人工智能用户规模达5.15亿人,普及率已达到36.5%。生成式人工智能被广泛应用于智能搜索、内容创作、办公助手等场景,明确人工智能学习结果与广告的界限,显得愈发重要。
我国广告法规定,广告应当具有可识别性,能够使消费者辨明其为广告;通过大众传播媒介发布的广告应当显著标明“广告”,与其他非广告信息相区别,不得使消费者产生误解。中国电子技术标准化研究院网安中心测评实验室副主任何延哲等专家建议,可借鉴传统搜索引擎的监管经验,要求各厂商在生成式引擎优化的结果中明确加注“广告”标识,防止用户误判。
同时,要压实内容平台的主体责任,严禁虚假信息传播。2023年,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,明确规定,提供和使用生成式人工智能服务,不得生成虚假有害信息等法律、行政法规禁止的内容;提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。中国通信学会数据安全专业委员会副主任委员左晓栋建议,各大内容分发平台应利用人工智能等技术,对包括假榜单、假报告、假专家等内容进行清除并标注相应内容生产者,在行业内共享“炮制虚假内容黑名单”,防止不法厂商借炮制虚假信息来实现生成式引擎优化。
北京世辉律师事务所合伙人王新锐等法律界人士建议,随着AI技术的发展,相关行业标准和法律法规也需要进一步完善。有关部门可根据生成式引擎优化面临的现实问题,指导相关机构有针对性地完善行业标准,让行业在规范中发展。
据新华视点