We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Arize-ai/phoenix'
If you have feedback or need assistance with the MCP directory API, please join our Discord server
---
'0': 描
'1': 述
'2': :
'3': 人
'4': 工
'5': 智
'6': 能
'7': 可
'8': 观
'9': 察
'10': 性
'11': 和
'12': 评
'13': 估
---
# Arize Phoenix
### 为什么选择Phoenix?
### 完全开源,在开放环境中开发
Phoenix是一个[开源平台](https://github.com/Arize-ai/phoenix),在设计时考虑了隐私和可定制性。Phoenix应用程序可以[自行托管](https://arize.com/docs/phoenix/deployment),完全在本地计算机或容器中运行,也可以通过我们网站上的免费云实例访问。\
所有开发流程,_包括上市和运营票据_,都在GitHub上公开。我们鼓励并欢迎社区贡献。我们希望Phoenix成为真正的协作成果。
### 基于OpenTelemetry
Phoenix由 [OpenTelemetry](https://opentelemetry.io/) 协议提供支持,该协议是经过实战检验的行业标准可观测性库。这意味着您为Phoenix编写的任何代码都可以在数十个其他平台上重复使用。我们希望您长期使用Phoenix,因为它是目前最好的AI可观测性平台,而不是因为技术债务。
Phoenix团队还与OpenTelemetry团队积极合作,帮助构建框架的演变。\
### 全面的功能集
Phoenix涵盖了构建、评估和量产LLM应用程序所需的一切。
* 追踪:提供对系统行为的深入洞察。
* 评估:帮助衡量和优化模型性能。
* 实验:促进测试和比较不同的方法。
* 数据集管理:简化人工智能工作流程的数据集处理。
* 快速迭代:支持LLM提示的优化和管理。\
* 多种部署选项:提供一系列部署选项,从按需云实例到Docker容器,再到在本地机器上运行_phoenix serve_。
Phoenix与[超过20个框架](https://arize.com/docs/phoenix/tracing/integrations-tracing)集成,包括OpenAI、LangChain、LlamaIndex、Anthropic、DSPy、Groq和Vercel AI SDK,以及手动实现选项,适用于所有现有工作流程。\
### 框架无关
Phoenix对所有集成一视同仁。我们与框架、模型和工具无关,这意味着您可以随时轻松切换方法。由于我们基于开放标准OpenTelemetry构建,因此您的可观测性工具也不会被锁定在Phoenix上。\
### Phoenix 与您共同成长
Phoenix 是一款综合性可观测性平台,但针对需求更高级的组织,Arize 还提供了一款[企业级平台](https://arize.com/)。该平台包括扩展的人工智能功能、专门的支持以及 ML 和 CV 可观测性工具。\
企业平台可扩展,每天能够处理数十亿个请求,为准备将可观测性提升到新水平的团队提供无缝过渡。
Arize是一家成立四年的[B系列](https://techcrunch.com/2022/09/08/arize-lands-38m-to-grow-its-mlops-platform-for-the-enterprise/?guccounter=1)公司,由TCV、Battery Ventures和Foundation Capital提供支持,由经验丰富的创始人领导,他们之前都曾成功创业。
Phoenix将始终保持免费、开源,并由人工智能工程师为人工智能工程师打造。