共计 815 个字符,预计需要花费 3 分钟才能阅读完成。
记得 2013 年那会儿,我看了斯派克·琼斯的《她》,说实话,当时觉得那个能和人谈恋爱的 AI 助手萨曼莎挺酷的,但也觉得离现实太远了。谁能想到,才过了十来年,类似的东西就已经走进了我们的生活。现在谁手机里还没个 Siri 或者 Alexa 呢?不过说真的,这些语音助手用起来有时候真让人抓狂。
前几天我打电话给银行,那个语音助手愣是听不懂我在说什么,气得我差点把手机摔了。还有一次用语音记笔记,结果出来的文字乱七八糟,害得我改了半天。后来我才知道,原来这些系统对不同人群的识别准确率差别很大。如果你有口音、年纪大点、或者说话带点方言,它们就更容易出错。
说实话,这些语音识别系统挺 ’ 笨 ’ 的。它们不会像人一样,通过你的语气或者表情来理解你的意思。有时候它们就是瞎猜,猜错了你也只能认栽。现在越来越多的公司和机构都在用这些系统,说是为了省钱。但你想啊,要是用在急救或者医疗这些重要场合,万一出错了可怎么办?
我有时候会想,要是哪天我出了车祸,打 911 结果接电话的是个机器人,那得多绝望啊。一边忍着疼,一边还得跟机器人解释情况,想想就觉得可怕。
说到底,这些系统的问题出在它们的训练数据上。开发者们用的语音数据大多是来自 30 多岁、有钱的美国白人。所以这些系统对他们说话识别得准,但对其他人就不一定了。要解决这个问题,得收集更多样化的数据,但这需要很多时间和资源。
更让人头疼的是,现在大多数 AI 系统都是用英语开发的。对不说英语的人来说,用起来就更困难了。即使是在英语和西班牙语这种大语种里,你说方言的话,系统也可能听不懂。
最让我觉得不舒服的是,现在有些公司居然在开发消除口音的服务。这不就是在说某些口音不如其他口音好吗?我觉得这种做法挺伤人的。
虽然 AI 在语言处理方面可能会越来越厉害,但我还是更喜欢和人说话。至少和人说话的时候,他们能理解你的情绪,能设身处地为你着想。而 AI 呢,要么听得懂,要么听不懂,听不懂了还得你自己想办法让它听懂。说实话,有时候真挺累的。