欢迎你访问新时代聚焦网
首页 > 科技

新训练方法提高AI模型准确率和透明度

2026-04-09 08:50:14 来源:中国经济网 责任编辑:

  在医疗诊断、自动驾驶等高风险场景中,人工智能(AI)模型决策的可解释性至关重要。据美国麻省理工学院官网近日消息称,为了提高透明度,该校团队开发出一种新方法,能够从已训练好的计算机视觉模型中自动提取关键概念,并迫使模型使用这些人类易于理解的概念进行解释和预测。这项进展有望在提升模型准确性的同时,增强用户对“黑盒”AI的信任。

  概念瓶颈模型是增强AI可解释性的常见技术。它是指在模型决策过程中增加一个中间步骤:先识别图像中与任务相关的、可被人理解的“概念”,再基于这些概念做出最终预测。例如,在肿瘤诊断中,模型可能先识别“成簇的棕色斑点”这一概念,再判断是否为黑色素瘤。

  然而,传统方法依赖人类专家或大语言模型预先定义概念集,这些概念可能与具体任务关联性不强,或缺乏足够细节,从而影响模型性能。另外,模型在训练时也可能“暗中”使用了定义之外的其他特征,导致解释与真实不符。

  此次,团队利用一个经过海量数据预训练的视觉模型,认为其内部已蕴含了完成任务所需的知识。他们设计了一种两阶段流程来提取和转化这些知识。首先,使用一个称为稀疏自编码器的专用模型,提取出最相关的特征,并将其压缩为少量核心概念。接着,由一个多模态大语言模型将这些特征转化为简洁的自然语言描述,并自动为数据集中图像标注这些概念真实与否。最后,利用这些标注数据训练一个概念瓶颈模块,并将其整合到原始模型中,强制模型仅使用这套提取的概念进行预测。

  团队在过程中限制了模型每次预测最多只能使用五个概念,迫使模型筛选出最关键的几个特征,使生成的解释既精炼又直接相关。

  测试中,鸟类物种识别和皮肤病变诊断等任务结果均表明,新方法在提供更精确、与图像更贴合的概念解释的同时,也取得了比现有概念瓶颈模型更高的预测准确率。这意味着,该方法不仅能更好地“解读”模型的思考过程,还能维持更优的性能。

  团队未来的工作还将致力于解决信息泄露等问题,并探索利用更强大的多模态大模型来标注更大规模的数据,以进一步提升方法的效能。

[责任编辑:]

免责声明:本站资讯来源于网络及第三方会员发布,新时代资讯网系信息发布平台,仅提供信息存储空间服务。有关任何重要信息请读者认真核对,谨慎防止金融诈骗,投资骗局,理财陷阱。本站提供的资讯,及用户发布的内容仅供信息传递及资讯分享之目的,并不能理解为我们认可,支持,验证该信息,资讯,观点。有关资金来往,贵金属交易,外汇保证金交易,差价合约交易以及其他金融类交易投资都要严格核实。我们建议您在进行相关重要步骤前,请咨询专业的投资顾问或者金融法律人士。任何浏览用户据此操作视作本人自行决定并自己承担此决定所产生的所有风险。

头条信息

热点文章

本网站内容来源于互联网,如因版权和其它问题需要同本网联系。 邮箱:axlt6@qq.com

新时代聚焦网版权所有 (c) All Rights Reserved. 津ICP备2022009749号-14