业内观点指出,AI在医疗领域的应用应当建立在更为可靠的数据基础上,而3·15曝光案例恰为我们敲响警钟。当AI的“食物”被污染,其输出的“诊断”可能会对临床诊断、患者治疗等产生不可估量的危害。在基因测序、影像诊断等AI医疗应用已取得突破性进展的今天,如何构建人机协同的安全防线,成为医疗AI可持续发展的重要命题。
医疗AI的“中毒”导致数据“污染”风险具有特殊性。与消费领域不同,医疗数据的“投毒”可能来自多方面:制药厂商为推广产品修改临床试验数据,不法机构伪造患者康复案例,甚至黑客篡改医疗影像数据库。
近年来,医疗数据安全事件层出不穷。2023年,印度新德里全印度医学科学研究所的医疗设备遭到勒索病毒攻击,导致患者诊断数据被加密劫持;2024年9月,美国AI医疗公司Confidant Health因服务器配置错误,泄露5.3TB敏感心理健康记录,涉及患者自杀倾向评估等隐私信息。北京协和医院2025年的相关研究显示,当训练数据中混入5%的伪造肿瘤影像时,AI诊断系统的假阳性率上升至23%……
这种数据“污染”的隐蔽性是传统质控手段难以防范的,凸显了医疗AI建立特殊防护机制的紧迫性。复旦大学附属华山医院内分泌科副主任医师吴晞在接受《医药经济报》记者采访时表示:“严格来说,将AI生成错误信息称为‘中毒’可能并不准确。”因为人工智能领域本身存在“幻觉”现象。无论是AI系统还是人类认知,都存在一定的错误输出概率。
至于人为制造并传播大量错误信息导致“污染”AI数据库的行为,这种现象本质上反映了技术应用中正负力量的对抗,既可能源于利益驱动,也可能如黑客行为,试图干扰AI系统的正常运行。
这一问题涉及两类核心受众:医学科普工作者和普罗大众,其中大众群体尤其需要关注。普通公众辨别错误信息的关键在于坚守常识判断、遵循科学基本规律与底层逻辑。对于那些突兀出现、闻所未闻,甚至违背基本科学素养的内容,应当保持警惕并审慎质疑。
吴晞分析道,普通人之所以依赖AI获取医疗信息,往往是因为自身专业知识的欠缺。但任何答案都必须符合科学基本规律,正如数学中公理“1+1=2”不可动摇,偏离这一基础逻辑的结论显然不可信。医学领域同样存在不可突破的基本原则:所有医疗建议必须以无害于人体为前提,理想情况下应对健康有益。若AI给出的答案明显违背这一核心准则,其可靠性就值得高度怀疑。
此外还需考虑试错成本。如果采信AI的医疗建议并付诸实践,必须评估自己能否承担可能的风险后果。若无法承受潜在代价,就不应轻易相信AI提供的结论,无论其是否存在被“投毒”的嫌疑。
然而,在医疗AI大举迈向规模化商用的背后,正面临数据安全与隐私合规的制约瓶颈。医疗数据具有高度敏感性,AI模型在全流程数据处理中,极易触发数据泄露、滥用等红线风险。若不能系统性地解决数据安全问题,跨越这道合规“生死线”,医疗AI的商业化将难以行稳致远。
基于此,由中国电子商会归口管理、智合标准中心组织编制,国家药品监督管理局信息中心、中国质量认证中心等联合起草的全国首部医疗AI数据安全团体标准《医疗人工智能应用数据安全与隐私保护规范》(以下简称“《规范》”)应运而生。

标准直面AI模型开发、训练、部署全流程中的动态化数据风险,系统构建了覆盖数据分类分级、全生命周期安全管理、隐私保护技术应用及多方协作责任界定的标准化操作框架,旨在破解医疗AI“数据-隐私”困境,筑牢医疗AI应用的安全底线,推动“人工智能+医疗卫生”产业规范、健康、可持续发展。
《规范》明确,医疗AI系统必须保留完整的决策溯源日志,对关键诊断需标注数据来源与置信度。同时,《规范》还明确相关行政机构在AI医疗监管中必须履行规范制定与监管的义务,包括推进相关立法和出台配套规定。但这也面临一个现实困境:人工智能的迭代速度远超传统行政体系的响应能力,导致现有法规和监管架构相较于AI技术发展存在明显滞后性。
吴晞建议利用人工智能技术本身构建快速响应机制和解决方案,这种技术驱动的监管模式可作为立法和立规的重要参考。
业内观点指出,医疗AI的终极目标是建立人机互信协作。当下,多模态融合等技术推动医疗AI从“工具”向“伙伴”进化,实现数据“可用不可见”与多维诊疗分析。行业需以防护机制与伦理框架为盾,通过人机协同释放技术价值,在提升效率、降低成本的同时坚守生命安全底线,这既是技术责任,更是行业担当。
生成海报
长按扫码关注公众号