共计 1516 个字符,预计需要花费 4 分钟才能阅读完成。
你会信任 AI 来诊断你的癌症吗?一位来自萨斯喀彻温大学(USask)的毕业生正在为此努力。Sakib Mostafa 博士(PhD)投身于人工智能研究,既源于对 AI 的着迷,也源于对它的恐惧。在孟加拉国长大的 Mostafa,曾深受《终结者》等电影以及儒勒·凡尔纳作品中技术描绘的吸引,同时也感到不安。
“我习惯于直面恐惧,而不是逃避。如果有什么困扰我或让我害怕,我更愿意去解决它,而不是避开它,”Mostafa(MSc’20, PhD’24)说道。
这位 USask 文理学院和工程学院的毕业生,最近开始在斯坦福大学进行一项著名的博士后研究,致力于构建用于检测癌症的 AI 模型。这项工作源于他在 USask 的研究生学习,重点是可解释 AI 的问题。
对于当今的 AI 工具来说,最大的危险并非杀手机器人的崛起,而是由于系统无法被理解(即使是其创造者)而导致的无效或不可信。这样的系统被称为“黑匣子”。大多数基于深度学习的 AI 系统,如 ChatGPT,都属于黑匣子。
“一旦你从 AI 模型中得到结果,试图回溯以理解输入数据如何被用来得出该结果,这是不可能的。因为数据通过 AI 模型后,会被分解成许多部分,无法跟踪数据流,”Mostafa 解释道。
在 USask 攻读计算机科学博士学位期间,Mostafa 在 Debajyoti Mondal 博士(PhD)的指导下,曾使用一个 AI 模型处理植物叶子的照片以分类疾病。团队假设系统在分析图像的多个方面以得出结果,但在深入研究后,他们发现模型仅关注叶子边缘,而忽略了其他部分。
这一发现提醒我们,对于 AI 系统来说,准确性并非唯一重要的因素。如果要信任 AI,还需要了解它如何以及为何做出决策。
“了解你使用的工具至关重要。你不能盲目使用一个工具,对吧?如果我给你一把剑,而你不知道如何使用它,它可能会伤到你,”Mostafa 说。
随着 AI 工具被引入执法和医学等高风险领域,这一问题将变得尤为关键。你不会信任一个基于眼睛颜色进行逮捕的警察侦探,或者一个只看鞋码的医生——无论他们的成功率如何。
这就是为什么 Mostafa 在可解释 AI 方面的研究基础,对他目前在斯坦福大学放射肿瘤学系的工作至关重要。他的团队正在开发 AI 工具,用于检测个体患者的癌症。与人类医生类似,他们的系统能够综合考虑多种类型的数据,如基因组学和医学图像,以得出诊断。
Mostafa 致力于理解系统如何解释这些海量数据——不仅是为了确保系统在改变生命的医学诊断中值得信赖,而且是为了使其工作更有效。
“我在博士研究中发现,如果我们为模型创建解释,我们可以改进模型。如果我们提供数据,而其中有一部分数据导致模型做出错误决策,现在我们可以修复这些数据,使模型越来越完善,”他说。
Mostafa 团队的目标是构建一个不仅能够检测癌症存在,还能确定其阶段和类型的系统。该系统还可以识别传统方法忽略的数据类型之间的模式和联系,从而提高准确性并挽救生命。
如果成功,该系统将在斯坦福医院进行试点,并最终作为诊断工具使用。
“这是我们的最终目标,”Mostafa 说。
对于 Mostafa 来说,能够走到今天“感觉不真实”。在孟加拉国长大时,他曾听说过像斯坦福这样的地方,但几乎不相信它们是真实的。在 USask 完成博士学位后,他在加拿大国家研究委员会进行了博士后研究,应用 AI 模型开发了具有气候适应性的作物。
在与植物合作多年后,他发现自己的真正兴趣是将研究应用于帮助人类,并走上了 AI 辅助医学的道路。
“萨斯喀彻温大学给了我很多机会,帮助我成为今天的我,我将永远感激他们。当我来到这里时,我只是一个有很多梦想并想尝试很多事情的孩子。而在萨斯喀彻温大学,他们给了我实现梦想的平台。我的一切都归功于他们,”Mostafa 说。