DeepSeek开源模型引热议:数据隐私与AI审查的平衡之道

61次阅读
没有评论

共计 767 个字符,预计需要花费 2 分钟才能阅读完成。

最近在 AI 圈子里,DeepSeek 这家中国初创公司可真是火了一把。说实话,我对他们开源的语言模型挺感兴趣的,但也不得不承认,这背后确实存在一些让人担忧的问题。特别是数据隐私和审查制度这些敏感话题,总是让人心里犯嘀咕。

有意思的是,Perplexity 和 You.com 这两家平台倒是想出了些办法来应对这些挑战。Perplexity 最近在 X 上宣布,他们现在托管了 DeepSeek 的 R1 模型。虽然免费用户每天只能进行三次 Pro 级别的查询,但至少给了大家一个尝试的机会。不过说实话,20 美元一个月的 Pro 计划还是有点小贵,特别是对于我这种喜欢 ’ 薅羊毛 ’ 的用户来说。

DeepSeek 开源模型引热议:数据隐私与 AI 审查的平衡之道

说到数据安全,Perplexity 倒是挺有底气的。他们声称所有数据都存放在美国和欧盟的服务器上,绝对不会传到中国。这让我想起之前用某款国产 APP 时,总担心自己的聊天记录会不会被 ’ 偷看 ’ 的经历。不过话说回来,即使数据不传到中国,R1 模型里内置的某些审查机制还是让人有点不舒服。比如我问它关于天安门广场的事,它就给我装傻充愣,真是让人哭笑不得。

You.com 这边也有点意思。他们提供了三种使用 R1 和 V3 模型的方式,价格倒是比 Perplexity 便宜点,15 美元一个月。不过最吸引我的是他们那个 ’ 信任层 ’ 的概念,听起来挺高大上的。据说这个功能可以让模型更倾向于引用网络资源,从而减少一些政治偏见。不过说实话,我试了几次,感觉效果也就那样,有时候还是会遇到一些敏感话题被回避的情况。

总的来说,这些平台确实在努力平衡 AI 模型的可用性和安全性。但作为一个普通用户,我还是希望能有更多选择,毕竟谁不想用着放心、价格又实惠的 AI 助手呢?不过话说回来,在这个数据安全越来越受重视的时代,能找到这样的折中方案已经不错了。只是希望未来能有更多创新,让我们这些普通用户也能享受到更安全、更开放的 AI 服务。

正文完
 0
admin-gah
版权声明:本文于2025-01-31转载自Zdnet,共计767字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码