广告投放

生成人工智能(AI):世卫组织发布关于 LMM 治理的新指南

WHO 发布了关于大型多模式模型(LMM)的道德和治理的新指南,以适当使用其来促进和保护人群的健康。 LMM 是一种快速增长的生成型 人工智能 (AI) 技术在健康方面有五个广泛的应用 in 

1. 诊断和临床护理,例如回复患者的书面询问; 

2. 患者指导使用,例如用于调查症状和治疗; 

3. 文书和行政任务,例如在电子健康记录中记录和总结患者就诊情况; 

4. 医疗和护理教育,包括为学员提供模拟患者接触情况; 

5. 科学研究和药物开发,包括识别新化合物。 

然而,这些医疗保健应用存在产生虚假、不准确、有偏见或不完整陈述的风险,这可能会损害人们在做出健康决策时使用此类信息。此外,LMM 可能接受的数据质量较差或有偏见,无论是种族、民族、血统、性别、性别认同还是年龄。卫生系统还面临更广泛的风险,例如表现最佳的 LMM 的可及性和可负担性。 LMM 还可能鼓励医疗保健专业人员和患者产生“自动化偏见”,从而忽视本来可以识别的错误,或者错误地将困难的选择委托给 LMM。与其他形式的人工智能一样,LMM 也容易受到网络安全风险的影响,这些风险可能会危及患者信息或这些算法的可信度以及更广泛的医疗保健服务。 

因此,为了创建安全有效的 LMM,WHO 向各国政府和 LMM 开发商提出了建议。 

各国政府负有制定 LMM 开发和部署标准的主要责任,以及将其整合和用于公共卫生和医疗目的的标准。政府应投资或提供非营利或公共基础设施,包括公共、私营和非营利部门的开发人员可以使用的计算能力和公共数据集,这要求用户在使用过程中遵守道德原则和价值观。交换访问权。 

· 利用法律、政策和法规确保用于医疗保健和医学的 LMM 和应用程序,无论与人工智能技术相关的风险或收益如何,都满足影响个人尊严、自主权等的道德义务和人权标准或隐私。 

· 在资源允许的情况下,指定现有或新的监管机构来评估和批准用于医疗保健或医学的 LMM 和应用程序。 

· 当大规模部署 LMM 时,由独立第三方引入强制性的发布后审计和影响评估,包括数据保护和人权评估。应公布审计和影响评估 

并应包括按用户类型分类的结果和影响,包括按年龄、种族或残疾等分类。 

· LMM 不仅是由科学家和工程师设计的。潜在用户和所有直接和间接利益相关者,包括医疗提供者、科学研究人员、医疗保健专业人员和患者,应该从人工智能开发的早期阶段就参与结构化、包容性、透明的设计,并给予机会提出道德问题、表达关切和为正在考虑的人工智能应用程序提供输入。 

LMM 旨在以必要的准确性和可靠性执行明确定义的任务,以提高卫生系统的能力并促进患者的利益。开发人员还应该能够预测和理解潜在的次要结果。 

*** 

Sumber: 

WHO 2024。健康人工智能的伦理和治理:大型多模式模型指南。可用于 https://iris.who.int/bitstream/handle/10665/375579/9789240084759-eng.pdf?sequence=1&isAllowed=y 

***

赛欧团队
赛欧团队https://www.ScientificEuropean.co.uk
科学欧洲® | SCIEU.com | 科学的重大进步。 对人类的影响。 鼓舞人心。

订阅电邮通讯

将通过所有最新新闻,优惠和特别公告进行更新。

最热门文章

氨基糖苷类抗生素可用于治疗痴呆症

在一项突破性的研究中,科学家们已经证明......

COVID-19 疫苗:与时间赛跑

开发 COVID-19 疫苗是全球优先事项......

坏血病继续存在于儿童中

坏血病,一种由于缺乏维生素引起的疾病...
- 广告 -
94,852风扇喜欢
47,750产品粉丝关注
1,772产品粉丝关注
30认购订阅