共计 644 个字符,预计需要花费 2 分钟才能阅读完成。
对于依赖云端 AI 服务,我一直心存顾虑。将个人想法和问题上传到远程服务器的做法,总让我感到不安。最近,我发现了一个本地运行的大型语言模型工具——Ollama,它完全符合我的需求。虽然默认情况下 Ollama 只能在命令行中使用,但谁愿意整天面对黑乎乎的终端敲命令呢?
幸运的是,一个名为 Page Assist 的 Firefox 扩展让这一切变得简单多了。前几天我在 Mac 上试用了这个扩展,效果相当不错。不过,第一次安装时我还是有些忐忑,因为这个扩展并非 Mozilla 官方认证。好在它的源代码是开源的,我在 GitHub 上仔细查看了一番,感觉应该没什么问题。
安装过程其实非常简单。打开 Firefox,在扩展商店中找到 Page Assist,点击几下就完成了安装。不过,我建议大家在安装前稍微做点功课,看看其他用户的评价。安装完成后,我将它固定在了工具栏上,使用起来非常方便。
第一次使用时,需要先选择一个模型。我选择了 llama3.2,感觉已经足够使用。界面设计得非常直观,输入问题后按回车就能得到回复。最让我惊喜的是,它还能直接添加新模型。不过提醒一下,有些模型体积较大,下载前最好检查一下硬盘空间是否足够。
总的来说,Page Assist 扩展让 Ollama 变得更加亲民。虽然命令行有其独特的魅力,但图形界面的便利性确实无可比拟。特别是对于像我这样不太懂技术的人来说,终于可以轻松地玩转本地 AI 了。不过,虽然这种工具非常方便,但也要注意不要过度依赖。毕竟,无论 AI 多么强大,最终还是要靠我们自己的判断力来把关。