共计 1189 个字符,预计需要花费 3 分钟才能阅读完成。
.NET 团队近日发布了 Dev Proxy 的 0.28 版本,带来了一系列新功能,旨在提升可观察性、插件扩展性以及与 AI 模型的集成。此次更新的亮点之一是引入了 OpenAITelemetryPlugin,该插件使开发人员能够跟踪其应用程序中 OpenAI 和 Azure OpenAI 语言模型请求的使用情况,并预估相关成本。
OpenAITelemetryPlugin 通过拦截请求并记录详细信息,如使用的模型、令牌计数(包括提示、完成和总计)、每次请求的成本估算以及每个模型的分组摘要,帮助开发人员更深入地了解应用程序如何与大型语言模型(LLM)交互。该插件还支持使用 OpenLIT 等外部工具可视化这些交互,从而优化与 AI 相关的费用。
此次更新还引入了对 Microsoft Foundry Local 的支持,这是在上个月的 Build 大会上推出的高性能本地 AI 运行时堆栈。Foundry Local 允许开发人员将基于云的 LLM 调用重定向到本地环境,从而降低成本并支持离线开发。开发团队表示,初步测试显示,在 Foundry Local 上使用 Phi-4 mini 模型相比其他模型有显著改进,并计划在未来的 Dev Proxy 版本中默认集成 Foundry Local。
此外,Dev Proxy 现在支持与 .NET Aspire 应用程序的集成,提供了扩展的预览版本,简化了在本地或通过 Docker 运行的配置过程,提高了可移植性,并简化了分布式开发团队的设置。对于 OpenAI 负载的支持也有所扩展,现在不仅限于文本完成,还支持更广泛的完成类型,增强了与 OpenAI API 的兼容性。
在技术细节方面,Dev Proxy 0.28 版本还带来了 TypeSpec 生成的增强,支持改进的 PATCH 操作生成,并引入了 JSONC(带注释的 JSON)的支持,使开发人员能够添加内联文档和注释,有助于团队协作和长期维护。在日志记录和模拟方面,也进行了并发性改进,确保并行请求的日志被准确分组,帮助开发人员更有效地跟踪请求行为。
此版本还包含两个重大更改:移除了 GraphConnectorNotificationPlugin,因为通过 Microsoft Teams 部署 Graph 连接器已被弃用;同时,devproxy jwt create 命令中的 –audience 标志已重命名为 –audiences,而简写别名 -a 保持不变。CRUD API 插件也进行了更新,改进了 CORS 处理并提供了一致的 JSON 响应,增强了其在客户端应用程序中的可靠性。
最后,Dev Proxy Toolkit for Visual Studio Code 已更新至版本 0.24.0,引入了新的代码片段和命令,包括对 OpenAITelemetryPlugin 的支持,并改进了 Dev Proxy Beta 兼容性,增强了进程检测。
感兴趣的读者可以在官方仓库中查看完整发布说明,了解此版本的功能、变更和指导的详细信息。