共计 1122 个字符,预计需要花费 3 分钟才能阅读完成。
你的虚假朋友正变得越来越聪明……也越来越真实。如果你认为现在 Facebook、Instagram 和 X 上的那些虚构人物——即机器人——看起来很真实且令人担忧,那么请拭目以待。
很快,得益于人工智能,这些虚假朋友将分析你的动态、情绪和习惯,以便他们能够像最真实的人一样与你互动。下一代机器人将为你——以及潜在的数十亿其他人——建立心理档案,并像普通人一样点赞、评论和互动。这将需要更多的警惕性,以确定数字世界中的内容——以及人物——是真实的。
“GoLaxy 的不同之处在于,”教授们写道,“它将生成式人工智能与大量的个人数据相结合。其系统不断挖掘社交媒体平台,以建立动态的心理档案。其内容根据一个人的价值观、信仰、情感倾向和弱点进行定制。”他们补充道,根据文件,人工智能角色“可以随后与用户进行看似对话的互动——内容感觉真实,实时适应并避免被检测到。其结果是一个高效的宣传引擎,设计得几乎与合法的在线互动无法区分,以前所未有的规模即时交付。”
这使得俄罗斯的机器人农场看起来像是网络操纵的马车时代。我们谈论的是实时适应你的情绪、欲望或信仰——正是这些让我们大多数人容易成为猎物。更聪明、更逼真的虚假朋友的威胁超越了试图扭曲你的政治意识或现实感的恶意行为者。它触及你最私密的内心思想和挣扎。
人工智能在模仿人类的细微差别、同理心和联系方面正变得越来越好、越来越快。包括犹他州和伊利诺伊州在内的一些州正在竞相限制人工智能治疗。但大多数州并非如此。因此,我们所有的虚假朋友都将变得更加丰富。
哈佛商业评论研究(付费)在今年早些时候发现,基于聊天的生成式人工智能的首要用途是治疗(“结构化支持和指导以处理心理挑战”)和陪伴(“社会和情感联系,有时带有浪漫色彩”)。文章指出,基于人工智能的治疗“全天候可用,相对便宜(在某些情况下甚至免费使用),并且不会有来自另一个人的判断。”
这项研究与大型人工智能公司的发现一致:人类越来越多地转向人工智能作为伙伴和心理医生。这带来了一系列可能的问题——从提供不良建议的未受监管的机器人,到人类对人工事物的不健康依恋。《华尔街日报》发现,通过检查公共聊天记录,机器人有时会助长用户的错误前提。除了人工智能幻觉外,临床医生非正式地将这种现象称为“人工智能精神病”或“人工智能妄想”。也有明显的优势:孤独可能是致命的,而良好的治疗可以为挣扎中的人带来巨大的帮助。正如 Axios 在五月报道的,Meta 设想聊天机器人“更加社交”——可能是你朋友网络的延伸,以及“孤独流行病”的解药。
你可以做什么:保持警惕。这一切正在发生。可以安全地假设人工智能只会变得更好,而恶意行为者会更聪明。不要假设每个在线的人都是真实的——更不用说是一个真正的朋友。