IBM Research推出可解释的AI工具包

很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于IBM Research推出可解释的AI工具包的资讯也不例外 , 希翼可以在一定的程度上开阔你们的视野!y有对IBM Research推出可解释的AI工具包这篇文章感兴趣的小伙伴可以一起来看看
【IBM Research推出可解释的AI工具包】IBM Research今天推出了AI Explainability 360,这是一个开源的最先进算法集合,它使用一系列技术来解释AI模型决策 。

IBM Research推出可解释的AI工具包


此次公布是在IBM一年前公布的AI Fairness 360公布之后,用于检测和缓解AI模型中的偏差 。
IBM正在分享其最新的工具包 , 以增加对人工智能的信任和验证,并帮助那些必须遵守法规的企业使用AI,IBM研究员和负责任的AI负责人Saska Mojsilovic在电话采访中告诉VentureBeat 。
“这是至关重要的 , 因为我们知道组织中的人不会使用或部署人工智能技术,除非他们真的相信他们的决定 。而且因为我们为这个世界的很大一部分创建基础设施 , 它对我们来说至关重要 - 不是因为我们自己内部部署了AI或我们可能在这个领域拥有的产品 , 但是因为我们的客户创建这些功能是至关重要的 。世界将利用它们,“她说 。
Mojsilovic说,该工具包也正在分享,因为行业在创建值得信赖的人工智能方面的发展“非常缓慢” 。
AI Explainability 360借鉴了IBM Research Group成员的算法和论文 。来源材料包括“TED:用于解释其决策的人工智能教学” , 一篇论文在AAAI / ACM会议上接受出版 , 其中涉及人工智能,道德和社会 , 以及经常引用的 “通过自我解释神经网络实现稳健可解释性,“在NeurIPS 2018上接受发表 。
该工具包借鉴了许多不同的方式来解释结果,例如可对比的解释 , 一种试图解释重要缺失信息的算法 。
算法也针对特定场景进行,例如用于解释原型的Protodash , 以及用于向最近被拒绝贷款的消费者解释信用评分模型结果的算法,或者需要解释AI模型决策的信贷员 。遵守法律 。
工具包中的所有八种算法都来自IBM Research,但未来将添加来自更广泛的AI社区的更多算法 。
“这不是一个研究小组或一个组织可以移动针头; 当我们联手并共同努力时,我们都会受益,这也是我们打算进展工具箱的原因 , “Mojsilovic说 。

    猜你喜欢