将人工智能的可解释性应用于新冠病毒_Covid-19 X光检测系统
假设您完成了对患者的X射线检查,正在等待人工智能系统诊断病情 。几分钟后,人工智能返回了诊断结果,显示可信度为98%,但是诊断结果明显错误 。您该怎么做?尝试重新拍摄X光片,还是呼叫主任医师?
人工智能通常被视为"黑盒子",即人类不清楚具体算法,但这也是它特别有效的部分原因,人工智能建立算法的逻辑方式并不依赖人类的思路 。但当人工智能无法正常工作时,我们就需要获得一定程度的可解释性,了解如何合理修复模型 。
恩智浦一直致力于借助现有技术解决这一问题,并对技术进行优化,以量化对人工智能系统最重要的两种数学不确定性 。
第一种是偶然不确定性,这是指自然发生的随机性或噪声,我们无法(或不知道如何)减少模型内部的这些不确定性 。这代表了由于输入数据质量不佳导致的不确定性,原因可能是X光片模糊,就像自动驾驶汽车在起雾的夜间行驶,看不清交通标志,或图像中存在其他噪音源 。
第二种是认知不确定性,在人工智能领域,这是指由于模型造成的不确定性 。原因可能是数据集有限,模型训练得不够好,或为了降低训练成本而刻意简化了模型 。
文章插图
推荐阅读
- 美女回家途中被男人尾随,男友却说是她的错
- 拆解第三代亚马逊Echo Dot,发现音质升级的秘密
- 没有遇到对的人,宁愿选择高傲的单身
- 与其谈一场低质量的恋爱,还不如高质量的单身
- Virtual Antenna技术将如何克服Wi-Fi产品天线与射频设计挑战?
- 藏着献王墓的虫谷,现实里真的有吗?
- 《云南虫谷》有神秘的痋术,现实里真的可以下蛊吗?
- 好的感情一定是彼此成就,而不是互相消耗
- 《鬼吹灯》的未解之谜?Shirley杨的父亲到底死在哪了?
- 母虾会吃刚出生的小虾吗