您的位置: 首页 >科技 >

杜克大学研究人员应对AI透明性斗争

2022-08-31 20:18:00 编辑:许辰策 来源:
导读 杜克大学的研究人员已获得一笔价值超过196,000美元的赠款,以解决基于AI的临床决策支持软件的可解释性功能的需求以及保护该技术的商业秘密...

杜克大学的研究人员已获得一笔价值超过196,000美元的赠款,以解决基于AI的临床决策支持软件的可解释性功能的需求以及保护该技术的商业秘密的需求-研究人员说,这一问题已成为AI-中新出现的问题,启用医疗服务。

这项为期一年的赠款授予了杜克大学创新政策法律中心和杜克-马戈利斯中心的研究人员,并由格林沃尔基金会(Greenwall Foundation)资助,该组织致力于支持生物伦理学研究。

“如何有效地将人工智能整合到医疗服务中,这是杜克-马戈利斯中心的一个新兴工作领域,”杜克-马戈利斯卫生政策部副主任,政策和临床教授格雷戈里·丹尼尔(Gregory Daniel)博士,在一份声明中说。

“通过与Duke Law合作,我们可以更快地采取行动,确定现实世界中的政策方法,以支持将AI结合起来的新兴技术,以帮助医生和患者做出更好的医疗保健决策。”

研究人员在他们的拨款建议中认为,医疗保健专业人员的职责之一是基于合理且可解释的理由做出决定,并且他们有权了解治疗的性质和理由,包括软件生成的建议。但是,一些详细的解释可能会以损害开发人员商业秘密的方式促进复制。

研究人员表示需要基于AI的临床决策支持系统,以提高透明度并解释决策,以便用户可以理解如何以及为何提供某些建议。这个问题通常被称为AI的“黑匣子”挑战。

“尽管软件开发始终涉及贸易秘密,但由于与保护和执行软件专利相关的挑战,贸易秘密作为创新激励的重要性可能有所提高,”杜克法律中心Elvin R. Latty教授Arti Rai ,在一份声明中说。“因此,基于AI的软件的主要监管机构FDA以及专业组织,提供商和保险公司都对如何平衡可解释性和贸易保密性问题抱有浓厚的兴趣。”

根据一份新闻稿,研究小组计划通过拨款,收集和审查有关某些基于AI的软件的私人和公共投资的数据。他们还计划与医疗监管部门的利益相关者进行访谈,并举办私人研讨会,其中包括开发商,采购,监管者,用户和患者。

该研究小组的目标包括:就医疗保健专业人员的可解释性的适当水平提出建议,并确定可以采用哪些法律或私人自我监管方法。

研究人员计划在白皮书和同行评审的期刊中发表他们的发现和建议。他们还计划举行一次公开会议,讨论调查结果。


免责声明:本文由用户上传,如有侵权请联系删除!

精彩推荐

图文推荐

点击排行

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。