共计 1046 个字符,预计需要花费 3 分钟才能阅读完成。
在人工智能(AI)日益普及的今天,全球用户正将其应用于各种场景,从聊天伙伴到研究工具,再到文档撰写。然而,尽管云端 AI 服务如 ChatGPT、Mistral、Copilot、Gemini 和 Claude 广受欢迎,但越来越多的人开始转向本地安装的 AI 解决方案。以下是选择本地 AI 的五大理由。,
什么是本地安装的 AI?
本地安装的 AI 意味着所有必要的组件都安装在个人桌面或服务器上,而非依赖云端服务。虽然这需要一定的技术知识,但实际操作并不复杂。例如,安装 Ollama 及其桌面应用仅需不到五分钟。一旦完成,用户即可享受专属的 AI 解决方案。
1. 隐私保护
隐私是选择本地 AI 的首要原因。与云端 AI 不同,本地安装的 AI 不会保存或共享用户的查询数据。这意味着用户无需担心公司利用其 AI 交互数据训练大型语言模型(LLM),或第三方通过聊天记录创建用户画像用于定向广告。选择本地 AI,用户的研究内容和个人数据将始终安全无虞。,
2. 成本效益
ChatGPT Plus 的基础版本每月收费 20 美元,对于许多人来说,这可能是一笔不小的开销。而本地安装的 AI 完全免费。用户可以在所有设备上安装 Ollama 及其官方应用或 Msty,自使用以来无需支付任何费用。与其每月支付云端服务费用,不如选择免费的本地 AI,节省一笔可观的开支。,
3. 速度与性能
尽管家庭中的计算机无法与 ChatGPT 的数据中心相媲美,但本地安装的 AI 无需依赖互联网连接速度,能够提供一致的性能。如果本地 AI 聊天速度过慢,用户可以通过升级计算机的 RAM 或 GPU 来提速,这是云端 AI 无法实现的。,
4. 离线功能
本地 AI 的另一个显著优势是离线功能。即使互联网连接中断,用户仍可与本地安装的 AI 交互。这在需要研究但无网络连接时尤为实用。即使关闭局域网,用户仍可在桌面或笔记本电脑上使用 AI,尽管此时无法从其他设备访问本地 AI。,
5. 环境影响
云端 AI 的环境影响是一个不容忽视的问题。根据 麻省理工学院的一篇论文,训练生成式 AI 模型(如 OpenAI 的 GPT-4)所需的计算能力消耗大量电力,导致二氧化碳排放增加,并对电网造成压力。AI 公司不仅消耗大量电力,其数据中心还产生大量热量,对环境造成额外负担。这种模式不可持续,这也是选择本地 AI 而非云端解决方案的另一个重要原因。
综上所述,本地安装的 AI 在隐私保护、成本效益、速度与性能、离线功能以及环境影响等方面均具有显著优势。对于那些注重隐私、希望节省开支、追求高效性能并关注环境可持续性的用户来说,本地 AI 无疑是一个值得优先考虑的选择。