将人工智能的可解释性应用于新冠病毒_Covid-19 X光检测系统

假设您完成了对患者的X射线检查,正在等待人工智能系统诊断病情 。几分钟后,人工智能返回了诊断结果,显示可信度为98%,但是诊断结果明显错误 。您该怎么做?尝试重新拍摄X光片,还是呼叫主任医师?
人工智能通常被视为"黑盒子",即人类不清楚具体算法,但这也是它特别有效的部分原因,人工智能建立算法的逻辑方式并不依赖人类的思路 。但当人工智能无法正常工作时,我们就需要获得一定程度的可解释性,了解如何合理修复模型 。
恩智浦一直致力于借助现有技术解决这一问题,并对技术进行优化,以量化对人工智能系统最重要的两种数学不确定性 。
第一种是偶然不确定性,这是指自然发生的随机性或噪声,我们无法(或不知道如何)减少模型内部的这些不确定性 。这代表了由于输入数据质量不佳导致的不确定性,原因可能是X光片模糊,就像自动驾驶汽车在起雾的夜间行驶,看不清交通标志,或图像中存在其他噪音源 。
第二种是认知不确定性,在人工智能领域,这是指由于模型造成的不确定性 。原因可能是数据集有限,模型训练得不够好,或为了降低训练成本而刻意简化了模型 。

将人工智能的可解释性应用于新冠病毒_Covid-19 X光检测系统

文章插图

    推荐阅读