我们应该如何比较医疗保健中人工智能的错误与人类的错误? 医生们经常犯错,但如果他们犯了几次错误,我们并不会撤销他们的医疗执照。人工智能的标准要高得多——它必须几乎完美,并在每种可能的情况下进行测试。只要它在边缘情况下犯了几次错误,我们就会对将其投入生产感到不安。 这也引发了一些问题,即“与医生所说的一致性”是否真的是衡量的标准。如果它是与一个糟糕的医生进行比较呢?那么我们可能不希望他们得到相同的答案。 这可能有几个原因。我们有一个针对医生犯错的责任框架,称为医疗事故。医生有道德规范、审查委员会和社会反馈,促使他们做正确的事情。我们仍在弄清楚如果人工智能出错该如何处理责任,以及是什么激励他们做正确的事情。为什么我的人工智能总是同意我的观点?(除了我确实是对的这一点)。 但如果人工智能已经比那些在简单案例中持续出错的底部四分之一的医生更好,我们是不是应该尽快推出这个?等等,但我们如何识别谁是底部四分之一的医生?
9.3K