2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082 备案号:闽ICP备19027007号-6
本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。
Face book和Google Regina Dugan的前DARPA董事兼秘密臭鼬部门负责人说,公司需要考虑如何使用人工智能技术会出错,以试图了解他们工作的伦理、社会和法律影响。
更具体地说,她建议从事应急技术的技术人员和工程师练习红色团队和蓝色团队来想象最好和最坏的情况。 这样做可以让你考虑如何减轻负面后果。 这些术语的思考应该在最初的阶段进行,以便变化产生长期影响。
杜根在接受三星电子(Samsung Electronics)总裁兼首席战略官杨素恩(Young Sohn)的采访时表示:“我认为在任何时候都不可能知道所有意想不到的后果。 “可能发生的坏事是什么? 然后,我们从总体上看待这些事情,并就如何前进作出决定,即使在某些情况下,我们有责任削减一些最积极的结果,以消除最消极的结果。 这就是平衡行动。
Dugan和Sohn上周在旧金山举行的三星首席执行官峰会上发表了讲话,这次峰会为期一天,字幕为“拥有人工智能的更美好世界”。发言者还包括前谷歌和百度高管AndrewNg,以及像Insitro这样发现的Insitro和使用神经网络进行网络安全的Deep Instinct等公司。
她比较了人工智能将拯救我们的乐观情绪,并担心它将导致90年代人类基因组计划的出现。 当时,国立卫生研究院(National Institutes of Heal th)采取了措施,鼓励从广泛的学科中进行持续的对话和反馈,今天人工智能也应该如此。
她说,同样重要的是,人们认为自己是正在发生的事情的积极参与者,而不是旁观者。
她说:“我认为,有一种倾向是,当我们进入这样的趋势线时,未来将会展开,我们将会成为在我们面前展开的未来的被动观察者,但我从未真正经历过这种情况。 “我们是塑造未来的积极工程师和建筑师,这意味着我们既有责任,也有作用,来弄清楚我们是否在提出正确的问题,以及我们是否在构建这些问题,以便这项技术能够在我们想要生活的这种世界中传播。
2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082 备案号:闽ICP备19027007号-6
本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。