WHO 发布了关于大型多模式模型(LMM)的道德和治理的新指南,以适当使用其来促进和保护人群的健康。 LMM 是一种快速增长的生成型 人工智能 (AI) 技术在健康方面有五个广泛的应用 in
1. 诊断和临床护理,例如回复患者的书面询问;
2. 患者指导使用,例如用于调查症状和治疗;
3. 文书和行政任务,例如在电子健康记录中记录和总结患者就诊情况;
4. 医疗和护理教育,包括为学员提供模拟患者接触情况;
5. 科学研究和药物开发,包括识别新化合物。
然而,这些医疗保健应用存在产生虚假、不准确、有偏见或不完整陈述的风险,这可能会损害人们在做出健康决策时使用此类信息。此外,LMM 可能接受的数据质量较差或有偏见,无论是种族、民族、血统、性别、性别认同还是年龄。卫生系统还面临更广泛的风险,例如表现最佳的 LMM 的可及性和可负担性。 LMM 还可能鼓励医疗保健专业人员和患者产生“自动化偏见”,从而忽视本来可以识别的错误,或者将困难的选择不适当地委托给 LMM。 LMM 与其他形式一样 AI,也容易受到网络安全风险的影响,这些风险可能会危及患者信息或这些算法的可信度以及更广泛的医疗保健的提供。
因此,为了创建安全有效的 LMM,WHO 向各国政府和 LMM 开发商提出了建议。
各国政府负有制定 LMM 开发和部署标准的主要责任,以及将其整合和用于公共卫生和医疗目的的标准。政府应投资或提供非营利或公共基础设施,包括公共、私营和非营利部门的开发人员可以使用的计算能力和公共数据集,这要求用户在使用过程中遵守道德原则和价值观。交换访问权。
· 利用法律、政策和法规来确保 LMM 和应用程序用于医疗保健和医学,无论其相关的风险或收益如何 AI 技术,满足影响个人尊严、自主权或隐私等的道德义务和人权标准。
· 在资源允许的情况下,指定现有或新的监管机构来评估和批准用于医疗保健或医学的 LMM 和应用程序。
· 当大规模部署 LMM 时,由独立第三方引入强制性的发布后审计和影响评估,包括数据保护和人权评估。应公布审计和影响评估
并应包括按用户类型分类的结果和影响,包括按年龄、种族或残疾等分类。
· LMM 不仅是由科学家和工程师设计的。潜在用户和所有直接和间接利益相关者,包括医疗提供者、科学研究人员、卫生保健专业人员和患者,应从早期阶段就参与进来。 AI 开发结构化、包容性、透明的设计,并提供提出道德问题、表达关切和提供意见的机会 AI 申请正在考虑中。
LMM 旨在以必要的准确性和可靠性执行明确定义的任务,以提高卫生系统的能力并促进患者的利益。开发人员还应该能够预测和理解潜在的次要结果。
***
来源:
WHO 2024。健康人工智能的伦理和治理:大型多模式模型指南。可用于 https://iris.who.int/bitstream/handle/10665/375579/9789240084759-eng.pdf?sequence=1&isAllowed=y
***