使用 Semantic Kernel 插件编排 AI 代理的技术深度解析
在如今快速发展的 大型语言模型(LLM) 领域,编排专门的 AI 代理已成为构建复杂认知系统的关键,这些系统能够进行复杂推理和任务执行。虽然功能强大,但协调多个具有独特能力和数据访问权限的代理会带来显著的工程挑战。微软的 Semantic Kernel(SK)通过其直观的插件系统为管理这种复杂性提供了强大的框架。本文将深入探讨如何利用 SK 插件实现高效的代理编排,并结合实际实现模式进行说明。
……一个技术老兵工作的点滴记录,专注、沟通、乐在分享!
在如今快速发展的 大型语言模型(LLM) 领域,编排专门的 AI 代理已成为构建复杂认知系统的关键,这些系统能够进行复杂推理和任务执行。虽然功能强大,但协调多个具有独特能力和数据访问权限的代理会带来显著的工程挑战。微软的 Semantic Kernel(SK)通过其直观的插件系统为管理这种复杂性提供了强大的框架。本文将深入探讨如何利用 SK 插件实现高效的代理编排,并结合实际实现模式进行说明。
……Azure OpenAI 最近增强了其语音识别产品,推出了两款令人印象深刻的模型:GPT-4o-transcribe 和 GPT-4o-mini-transcribe。它们的一个关键特性是利用 WebSocket 连接进行实时音频流转录。这为开发者们提供了构建语音转文本应用的先进工具。本文将深入探讨这些模型的工作原理,并提供一个用 Python 实现的实用示例。
……语音识别和合成的延迟可能是创建无缝和高效应用程序的一个重大障碍。减少延迟不仅可以改善用户体验,还可以提升实时应用程序的整体性能。本文将探讨在一般转录、实时转录、文件转录和语音合成中减少延迟的策略。
导致语音识别延迟的主要因素之一是网络延迟。为了减轻这一延迟,关键是减少应用程序与语音识别资源之间的距离。以下是一些建议:
……本文介绍使用 Azure AI 语音与 Azure OpenAI 服务实现全语音对话聊天,以及如何改进非阻塞式的对话。
以下是 Python 版本的示例,想要了解更多语言的示例,请参考 OpenAI-Speech
|
|
|
|
前面的示例运行起来的效果是固定一问一答交流的,如果希望实现对话的过程是可以被打断的,可以改变识别语音的代码为非阻塞式。 即把调用 ask_openai 的地方改为创建另一个线程来执行。
……本文重点介绍如何使用由 Azure OpenAI 服务提供支持的 Semantic Kernel 创建自己的 Copilot。我们将尝试利用大型语言模型(LLM)的优势与外部服务的集成。这将使您了解如何真正实现您的 Copilot 目标,不仅与零售业,而且与任何行业,无论是电力和公用事业,政府和公共部门等。它的整体功能和潜在的应用场景都远超于聊天机器人。
……OpenAI 的 GPTs 上线有一段时间了,在实际应用中发现 GPTs 内置对知识库的检索能力很一般,对话过程中经常拿不到期望的反馈内容。如果利用 GPTs 的 action 能很好地弥补这个缺陷。
总所周知加强检索知识库离不开 RAG,如果自建 RAG 将会是一个很大的工作量,而且还要考虑到知识库的更新问题。于是想到 Azure AI Search 提供了一个很好的解决方案,可以很方便地将知识库导入到 Azure AI Search 中,然后通过 API 调用来检索知识库。整个过程都不需要编码,所以将 Azure AI Search 与 GPTs action 结合起来是个不错的主意。
……Azure 机器学习 (AzureML) 与价值驱动 AI 领导者 DataRobot 之间的突破性集成,这是最近宣布的合作伙伴关系的结果。这种集成将 Azure 机器学习功能的强大功能与 DataRobot 在加速构建、部署和监视企业级 AI 解决方案的整个生命周期方面的专业知识结合在一起。
DataRobot AI 平台独特地将生成式和预测性 AI 功能结合在一个统一、开放和端到端的环境中。通过新的集成,DataRobot AI 平台现在可以轻松地直接在 Azure Kubernetes 服务 (AKS) 上运行。数据科学家现在可以在 DataRobot Notebooks Code-Assist 中利用 Azure OpenAI 服务的强大功能。他们还可以通过 Azure 机器学习托管的联机终结点为实时和批处理用例部署模型,同时在 DataRobot 中监视这些部署。
……Prompt Flow 在 Azure 机器学习工作室、Azure AI Studio 和本地开发笔记本电脑上提供,是一种开发工具,旨在简化由 LLM(大型语言模型)提供支持的 AI 应用程序的整个开发周期。Prompt Flow 使提示处于前端和中心,而不是像其他工具那样混淆它们或将它们深埋在抽象层中。这种方法不仅允许开发人员构建编排,还可以像在传统软件开发周期中评估和迭代代码一样评估和迭代他们的提示。
……我们很高兴地看到,在 Azure AI Model Catalog 中增加了几个新的基础和生成AI模型。从 Hugging Face 我们已经推出了一系列稳定的 stable diffusion 模型,falcon 模型,CLIP, Whisper V3, BLIP 和 SAM 模型。除了 Hugging Face 模型,我们还分别添加了 Meta 和 NVIDIA 的 Code Llama 和 Nemotron 模型。我们还将介绍微软研究中心的尖端 Phi 模型。Model Catalog 产生了40个新模型和4个新模式,包括文本到图像和图像嵌入。专业开发人员很快就可以轻松地将最新的 AI 模型(如Meta 的 Llama 2、Cohere 的 Command、G42 的 Jais 以及 Mistral 的高级模型)作为 API 集成到他们的应用程序中。他们还可以使用自己的数据对这些模型进行微调,而无需担心设置和管理GPU基础设施,从而帮助消除配置资源和管理主机的复杂性。
……