人工智能社区的一个普遍看法是什么

2022-02-11 16:13:45   编辑:殷娴婕
导读2022年2月11日整理发布:在准确性和可解释性之间进行权衡:以不可解释为代价,诸​​如深度神经网络之类的黑盒人工智能系统提供了其他类型

2022年2月11日整理发布:在准确性和可解释性之间进行权衡:以不可解释为代价,诸​​如深度神经网络之类的黑盒人工智能系统提供了其他类型的机器学习算法所缺乏的灵活性和准确性。

但这实际上取决于问题域、可用数据的种类和期望的结果。“当考虑具有有意义特征的结构化数据的问题时,更复杂的分类器和预处理后更简单的分类器之间的性能通常没有显着差异,”Rudin 指出。

在她的论文中,Rudin 还观察到,在某些情况下,更简单的机器学习模型提供的可解释性比应用黑盒 AI 系统获得的边际性能更有价值。“在这些情况下,准确性/可解释性的权衡是相反的——更多的可解释性会带来更好的整体准确性,而不是更糟,”她写道。

在医学等关键领域尤其如此,医生需要了解人工智能决策背后的逻辑,并将自己的见解和意见应用于决策。

部分问题源于随着深度学习的普及而在人工智能社区中普遍存在的一种文化。许多研究人员正在倾向于“越大越好”的方法,其中希望具有更多层和参数并在更大数据集上训练的更大深度学习模型将导致人工智能的突破。这导致深度学习在可解释的人工智能技术可以提供同样准确结果的领域中得到广泛应用。

“在准确性和可解释性之间总是存在权衡的信念导致许多研究人员放弃了产生可解释模型的尝试。研究人员现在接受的是深度学习培训,而不是可解释的 ML,这一事实使这个问题变得更加复杂,”Rudin 写道。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章