浅谈医疗人工智能的伦理问题,伦理学论文.docx
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《浅谈医疗人工智能的伦理问题,伦理学论文.docx》由会员分享,可在线阅读,更多相关《浅谈医疗人工智能的伦理问题,伦理学论文.docx(12页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、浅谈医疗人工智能的伦理问题,伦理学论文内容摘要:人工智能在医疗行业领域的应用与实践中带来了新的伦理挑战。新的人工智能技术可能对患者产生潜在的风险,这些风险因素主要来自算法偏见、隐私安全、医生接受度、责权和技术滥用等。当下医疗领域缺乏医疗人工智能伦理规范和审核机制。对当下国内外产业界与医疗的人工智能伦理规范现在状况进行了概述。医疗人工智能将来对整个医疗健康体系势必产生重大的影响,有助于医疗健康体系的重塑,促进公民的健康民主。等待行业组织或者制定医疗人工智能伦理规范。 本文关键词语:人工智能,医学伦理,算法偏见,健康民主 人工智能(artificial intelligence,AI)已经在医疗健
2、康领域进行了广泛的探寻求索性应用,部分已经构成商业化的使用。AI将产生广泛的影响,显着地影响医学实践,改变患者体验和医生的日常生活。与此同时,AI先进的技术也带来一系列新的伦理挑战。医疗伦理自古以来就贯彻整个医学发展的各个阶段,AI作为变革性的技术,对医疗健康体系势必产生重要的影响。本文就医疗AI伦理若干问题进行讨论。 1 当下医疗AI伦理的主要问题 1.1 算法偏见对患者安全造成潜在风险 牵涉患者安全的风险主要表现为 AI 提供的辅助诊断、治疗建议以及操作可能误导医生进行错误的决策,直接或者间接对患者产生不同程度的机体伤害。这种危害从技术上看主要来自系统的算法偏见(algorithmic b
3、ias)与漏洞。算法偏见指的是AI系统中产生不公平结果的系统性和可重复性错误,偏差可能是由于很多因素造成的,包括但不限于算法本身的设计、数据编程、收集、选择或用于训练算法的方式相关的意外或非预期的使用或决策。 计算机产生的偏见几乎无处不在,偏见的原因往往不在准则中,而是在更广泛的社会经过中。使其结果存在无意识和制度偏差。算法偏见主要分为 数据驱动造成的偏见 人为造成的偏见 与 机器自我学习造成的偏见 三种类别1。 数据驱动造成的偏见 指由于原始训练数据存在偏见性,导致算法执行时将歧视带入决策经过。鉴于算法本身不会质疑其所接收到的数据,只是单纯地寻找、挖掘数据背后隐含的构造和形式,假如人类输入给
4、算法的数据一开场就存在某种偏见或爱好,那么算法获得的输出结果也会与人类偏见一样。 例如,图像辨别以及使用机器学习和建立学习算法的经过中,存在潜在的偏差。训练图像往往来源于某个详细合作医疗机构的数据,其图像标识经过中带有鲜明的该医疗机构的诊断特色和习惯。除此之外,算法概念化的框架本身包含了工作组的主观假设,这种基于 主观 上的数据结果成为所谓 客观 的数据输入。尽管国际影像厂商设备的图像质量趋同同质性,但更多的不同厂商影像设备也存在不同的设备型号、数字化成像质量的程度上的差异,同时模型可能造成或加剧按年龄、性别、种族、地区或其他受保卫特征划分的医疗保健人群不公平现象。这些因素导致应用的范围存在偏
5、差。 人为造成的偏见 是指算法设计者为了获得某些利益,或者为了表示出自个的一些主观观点而设计存在歧视性的算法。这里包括主观的偏见和客观的偏见,一方面由于人和技术本身问题造成的,另外一方面也有人刻意而为之。斯坦福大学有学者以为,用于医疗保健应用的AI开发者的价值观可能并不总是与临床医生的价值观一致。例如,可能会有诱惑,引导系统采取临床行动,提高质量指标,但不一定是为患者护理2。这些算法可能会在被潜在的医院监管机构审查时,扭曲为公众评估提供的数据。而也有人为的偏见是来自医学的本身特点,尤其在治疗方案上有着区域、学派的分歧,治疗方案选择上存在人为的偏见,尽管循证医学已经成为主导,但具有主观色彩的经历
6、体验医学在临床实践上仍有效。很多时候,没有治疗唯一的 金标准 ,这也就是为什么经常出现等级性质的方案推荐,有着专家共鸣、临床指南、临床规范的不等的标准。除此之外人为的偏见,也有可能来自系统开发机构工程师伦理知识的匮乏,缺乏专业知识。 机器自我学习造成的偏见 是随着算法复杂程度的日益提高,通过机器学习经过构成的决策越来越难以解释AI内部的代码、算法存在 黑箱 3,导致无法控制和预测算法的结果,而在应用中产生某种不公平倾向。 1.2 患者隐私遭泄露的风险 进入信息化时代后,患者个人健康信息数据(personal health information,PHI)一直被关注,亦有相应的行业规范和政策法规
7、进行管理。随着数据搜集、机器学习、AI等技术的使用,个人信息泄露的情况频繁发生,个人隐私保卫、个人健康自信心重要性日益凸显。当下对于医疗AI应用牵涉患者的隐私问题、自我保卫策略和可接受性尚还没有清楚明晰的策略。数据更多的泄露来源是在为AI进行训练的患者数据。华而不实,人体基因组数据的泄露潜在的生物危害和商业利益更为突出。公众对个人隐私泄露问题的顾虑占到调查人群的59.72%4。 1.3 医生对医疗 AI的接受性 从技术角度而言,医生不了解AI算法的局限性或范围,进而对这种不透明的 黑箱 效应产生了盲目信仰或怀疑的可能,但还是不信任的占多数。由于医疗 AI 当下还处于相对早期的临床应用阶段,无论
8、医生还是民众对医疗 AI 的信任程度未到达期望。很多医疗 AI 系统没有很好地整合到医疗工作中,即医疗 AI 解决方案并未贯穿于医疗全流程,反而部分操作增加了医生现有的工作负担,其带来的价值没有很好的具体表现出。除此之外,医生对医疗 AI 新技术存有各种顾虑,不自觉地表现出排挤和质疑的心理,某种程度上延缓了新技术的迅速推广施行。对于新技术的接受程度,具有海外进修培训经历的高学历的中青年医生对 AI技术应用更持有理性的态度,而部分年长的医生对新技术持有质疑和排挤的心理。除此之外,在医疗不同场景下的应用,也导致对 AI 的评价与接受度不同。有研究发现,在医学培训教育上医生对 AI 的作用认可程度最
9、高5。 1.4 医疗责权问题 医生对 AI 系统临床应用的另一个顾虑是谁对医疗 AI 提供的决策最终负责,假如出现错误,谁来承当后果。当下阶段,医疗 AI 的最后结果仍需要人工校验审核,医生承当由此对患者诊疗结局的责任。将来临床广泛引入医疗 AI 后怎样实现问责,如今仍不明确。 当AI应用结果导致医疗纠纷、关于人的伦理或法律冲突时,能否从技术层面对AI技术开发人员或设计部门问责,并在AI应用层面建立合理的责任和赔偿体系,保障医疗 AI 在临床发挥其应有的价值。 1.5 医疗 AI滥用导致过度医疗与潜在风险 医疗AI在特定领域十分是影像辨别上已经高于人类辨别平均水平,而且具有较高的效率,但作为工
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 文化交流
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内