您的位置: 首页 >科技 >

Facebook正在使用人工智能来减少滥用和偏见

2022-09-01 00:53:12 编辑:屠凝咏 来源:
导读 Face book首席执行官马克·扎克伯格(Mark Zuckerberg)经常声称,人工智能将大幅减少数百万恶意Face book用户的虐待行为。 今天,在旧金...

Face book首席执行官马克·扎克伯格(Mark Zuckerberg)经常声称,人工智能将大幅减少数百万恶意Face book用户的虐待行为。 今天,在旧金山举行的F8开发公司年度会议上,CTOMikeSchroepfer详细介绍了其团队在实现这一宏伟目标方面取得的进展。

施罗德普表示:“我们面临的挑战包括选举干预、错误信息、仇恨言论等。 “我们必须致力于深入了解细节,处理这些问题,日复一日,年复一年。

在一个季度内,Schroepfer说,Face book拥有超过10亿个垃圾账户、超过7亿个假账户和数千万条包含裸体和暴力的内容。 他说,人工智能是所有这些类别中最重要的报告来源。

Face book人工智能在生产中的一个具体例子是一种新的“近邻”算法,它比以前的版本更快8.5倍。 它补充了一个系统,它学习了Face book图形中所有节点的深度图嵌入-网络上数据、故事、广告和照片的收集-以找到相互关联的滥用帐户和页面。

另一个例子是一个语言不可知的人工智能模型,在30个方言家族中对93种语言进行了训练;它与其他分类器一起使用,一次解决多个语言问题。 在等式的视频方面,Face book说,它的突出采样器模型-它快速扫描视频并处理上传剪辑的“重要”部分-使它能够识别6500万个视频中超过10,000个不同的操作。

事实上,在一个包含30万个视频和400个动作的流行基准上,Face book表示,它的计算机视觉堆栈可以以82.8%的准确率对视频进行分类,与以前的领先模式25%相比,错误率降低了.. “我想退一步说,即使有了这些改进,当我们看到暴力视频逃避我们的系统时,很明显,视频理解还处于起步阶段,”Face book的AI Manohar Paluri主管说。“[但是这样的系统]允许我们今天主动识别有问题的内容。

Face book正向一种名为自我监督学习的人工智能培训技术迈进,在这种技术中,未标记数据与少量标记数据一起使用,以提高学习精度。 在一个实验中,它的研究人员能够训练一个语言理解模型,该模型只有80个小时的数据,而人工标记的数据为12,000个小时。

帕鲁里说,像它这样的人工智能模型被用来保护选举的完整性,在,人们说22种不同的语言,用13种不同的脚本写作。 他表示:“这种自我监督技术正在跨越多种模式、文本、语言、计算机视觉视频和语音。 “这是几个数量级的工作缩减。

在公平和减少偏见的问题上,Face book应用机器学习主管JoaquinQuinoneroCandela说,Face book正在使用错误校准等技术来检测和解决算法不公平的问题。 例如,它研究了网络的公民内容分类器-它检测文本片段涉及公民问题的可能性-是如何根据所使用的语言得出不同的结论的。


免责声明:本文由用户上传,如有侵权请联系删除!

精彩推荐

图文推荐

点击排行

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。