所以。很多。数据。
2017 年,由于对通过移动应用程序、可穿戴传感器和社交网络创建的大量个人健康信息感到不安,加利福尼亚大学的一组研究人员开始探索技术支持的研究和人工智能的伦理考虑,以识别促进负责任地开展这项研究的建议。尽管一个人一天走了多少步似乎是相当良性的跟踪数据,但公司跟踪的健康数据量正在快速增加。随着技术不断扩大与医疗保健服务的整合,这些专家警告说,创新的激增超出了机构审查委员会可以消化的知识以做出合理的风险评估。他们的主要发现之一是需要加强利益相关者之间的合作,以生产和共享资源,从而提高技术意识并减少对参与者隐私和数据机密性的潜在威胁。从更实际的角度来说,这些研究人员主张最终用户需要更好地了解可用的技术以及使用此类技术的伴随风险。
人工智能在心理健康中的应用
在人工智能 (AI) 和心理健康领域,技术尤其带来了新的机遇(和威胁)。目前,位于柏林的初创公司 ClareandMe.com 提供一项服务,您可以在上午 9 点至下午 5 点之间通过 WhatsApp、短信和电话免费获得心理健康支持。为了证明人工智能如何补充特定于心理健康的临床实践,另一组研究人员(同样来自加利福尼亚州)回顾了 28 项研究,这些研究使用人工智能来预测、分类或分组心理健康疾病,如抑郁症、精神分裂症和精神疾病就像自杀意念。他们发现该领域的研究数量在 2015 年呈指数级增长,并且他们审查的许多研究能够准确预测他们正在筛查的心理健康疾病。在一项研究中,人工神经网络根据一组社会人口统计学变量和大型电子健康记录数据库的临床数据预测抑郁症的准确率高达 97%。另一项研究发现,可以通过分析人们的社交媒体帖子来预测抑郁症。
当创新超过知识时应考虑什么
无论技术是用于预防、诊断还是积极治疗心理健康,目前该领域的应用正在被积极想象,但尚未得到充分研究。事实上,这个话题是如此复杂和快速发展,以至于尝试获取知识可能会势不可挡甚至徒劳无功,但领导者可能会从为自己配备一个框架来帮助他们评估该技术的风险和收益中受益。最近,佐治亚理工学院交互计算学院副教授 Munmun De Choudhury 和微软研究院高级首席研究员 Emre Kiciman 发表了一篇论文,提出了指导 AI 集成的四个考虑因素,但只能提供部分视角,在医疗保健环境中具有人类智能。对于那些对人工智能对我们日常工作和个人生活的影响感到好奇的人,乔杜里博士和基西曼博士的四个因素可能对你下次智能手表告诉你积累更多步数时值得思考。
- 构造有效性 – 当人工智能提取数据形成评估时,构造有效性会问“这实际上是在测量我们认为正在测量的东西吗”?例如,当通过社交媒体帖子预测抑郁症时,文字和图像是否真正反映了他们正在经历的情绪?
- 未观察到的因素 – 任何观察到的数据点都会受到情境或其他未观察到的因素的影响,这些因素可能不会立即显现出来。例如,冬季的抑郁症发病率可能更高,或者某些文化可能将精神疾病视为耻辱,导致社交媒体上负面情绪的披露较少。无论如何,这些因素可能会过度影响我们对数据的理解,导致处方不准确或得出错误结论的倾向。
- 数据偏差 – 人工智能的决策基于一组预先制定的规则或通过分析大量数据识别的趋势。但这些数据集并非没有偏见。考虑一个基于接受过一对一治疗的个体亚群的数据集。由于某些社会人口变量比其他变量更有可能参与治疗,因此该数据集不能完全代表全部人群,但当应用人工智能时,人们可能会错误地将趋势推广到其他亚人群或更广泛的人群。
- 人工智能错误的成本 – 如果技术失败或提供错误的预测,我们要求人工智能在医疗保健环境中解决的问题可能会产生非常关键的影响。在医疗保健环境中,即使处方中的拼写错误也可能会造成危及生命的后果,因此领导者必须投入资源来了解人工智能在集成的特定情况下可能犯下的潜在错误。
作为最后的思想实验,鉴于在医疗保健环境中部署人工智能的法规还处于起步阶段,领导者及其员工可能会仔细思考可穿戴设备、电子邮件内容以及附加到其身份的任何数字信息的机会和成本可能会创建大量数据,用于诊断健康结果和个性化治疗,或者在黑暗的一面,确定保险范围和就业/终止。