本周系统设计复习:

  • API 解释(6 分钟)
  • 2025 年你可以使用的 12 个 MCP 服务器
  • 如何部署服务
  • 系统设计主题地图
  • Transformers 架构如何工作
  • ByteByteGo 招聘

12 个 MCP 服务器

MCP(Model Context Protocol)是一个开放标准,简化 AI 模型(特别是 LLM)与外部数据源、工具和服务的交互方式。MCP 服务器充当这些 AI 模型和外部工具之间的桥梁。以下是顶级 MCP 服务器:

1. 文件系统 MCP 服务器(File System MCP Server)

允许 LLM 直接访问本地文件系统以读取、写入和创建目录。

2. GitHub MCP 服务器

连接 Claude 到 GitHub 仓库,允许文件更新、代码搜索。

3. Slack MCP 服务器

Slack API 的 MCP 服务器,使 Claude 能够与 Slack 工作空间交互。

4. Google Maps MCP 服务器

Google Maps API 的 MCP 服务器。

5. Docker MCP 服务器

与 Docker 集成以管理容器、镜像、卷和网络。

6. Brave MCP 服务器

使用 Brave 的搜索 API 进行网络和本地搜索。

7. PostgreSQL MCP 服务器

启用 LLM 检查数据库模式并执行只读查询的 MCP 服务器。

8. Google Drive MCP 服务器

与 Google Drive 集成的 MCP 服务器,允许读取和搜索文件。

9. Redis MCP 服务器

提供 Redis 数据库访问的 MCP 服务器。

10. Notion MCP 服务器

此项目为 Notion API 实现 MCP 服务器。

11. Stripe MCP 服务器

与 Stripe API 交互的 MCP 服务器。

12. Perplexity MCP 服务器

连接到 Perplexity 的 Sonar API 进行实时搜索的 MCP 服务器。

部署策略

部署或升级服务是有风险的。在这篇文章中,我们探索风险缓解策略。

1. 多服务部署(Multi-Service Deployment)

在此模型中,我们同时部署新更改到多个服务。此方法易于实现。但由于所有服务同时升级,很难管理和测试依赖关系。安全回滚也很困难。

2. 蓝绿部署(Blue-Green Deployment)

使用蓝绿部署,我们有两个相同的环境:一个是暂存(蓝色),另一个是生产(绿色)。暂存环境比生产环境领先一个版本。一旦在暂存环境中完成测试,用户流量切换到暂存环境,暂存变成生产。此部署策略回滚简单,但拥有两个相同的生产质量环境可能很昂贵。

3. 金丝雀部署(Canary Deployment)

金丝雀部署逐步升级服务,每次针对一部分用户。它比蓝绿部署便宜且易于回滚。然而,由于没有暂存环境,我们必须在生产上测试。此过程更复杂,因为我们需要在逐步迁移越来越多用户远离旧版本时监控金丝雀。

4. A/B 测试(A/B Test)

在 A/B 测试中,不同版本的服务同时在生产中运行。每个版本为一部分用户运行”实验”。A/B 测试是在生产中测试新功能的廉价方法。我们需要控制部署过程,以防某些功能意外推送给用户。

系统设计主题地图

有效的系统设计是一场权衡游戏,需要广泛的知识基础来做出最佳决策。此主题地图基于类别对基本系统设计主题进行分类。

1. 应用层

包括核心概念,如可用性、可扩展性、可靠性和其他 NFR。还涵盖设计和架构主题,如 OOP、DDD、微服务、清洁架构、模块化单体等。

2. 网络和通信

涵盖通信协议、服务集成、消息传递、实时通信和事件驱动架构。

3. 数据层

涵盖数据库系统基础(模式设计、索引、SQL vs NoSQL、事务等)、各种类型的数据库,以及分布式数据库的细微差别(复制、分片、领导者选举等)。

4. 可扩展性和可靠性

涵盖可扩展性策略(水平、无状态、缓存、分区等)和可靠性策略,如负载均衡、速率限制等。

5. 安全和可观察性

涵盖认证和授权技术(OAuth 2、JWT、PASETO、Sessions、Cookies、RBAC 等)和安全威胁。可观察性领域涉及监控、追踪和日志等主题。

6. 基础设施和部署

涉及 CI/CD 管道、容器化和编排、无服务器架构、IaC 和灾难恢复技术。

Transformers 架构如何工作

Transformers 架构已成为一些最流行 LLM 的基础,包括 GPT、Gemini、Claude、DeepSeek 和 Llama。

工作原理

  1. 典型的 transformer 模型有两个主要部分 编码器和解码器。编码器读取和理解输入。解码器使用此理解生成正确输出。

  2. 第一步(输入嵌入) 每个单词转换为数字(向量),表示其含义。

  3. 接下来,位置编码模式告诉模型每个单词在句子中的位置 这是因为单词顺序在句子中很重要。例如,“猫吃了鱼”不同于”鱼吃了猫”。

  4. 接下来是多头注意力 这是编码器的大脑。它允许模型一次查看所有单词并确定哪些单词相关。在添加和归一化阶段,模型将从注意力学到的内容添加回句子。

  5. 前馈过程增加理解的额外深度 整体过程重复多次,使模型能够深入理解句子。

  6. 编码器完成后 解码器开始行动。输出嵌入将预期输出中的每个单词转换为数字。为理解每个单词应该去哪里,我们添加位置编码。

  7. 掩码多头注意力隐藏未来单词 所以模型一次只预测一个单词。

  8. 多头注意力阶段对齐输入的正确部分与输出的正确部分 解码器查看输入句子和它迄今为止生成的单词。

  9. 前馈应用更多处理 使最终单词选择更好。过程重复几次以细化结果。

  10. 一旦解码器为每个单词预测数字 它通过线性层准备输出。此层将解码器的输出映射到大量可能的单词。

  11. 线性层为每个单词生成分数后 Softmax 层将这些分数转换为概率。具有最高概率的单词被选为下一个单词。

  12. 最后 生成人类可读的句子。

本文为学习目的的个人翻译,译文仅供参考。

原文链接:EP163: 12 MCP Servers You Can Use in 2025

版权归原作者或原刊登方所有。本文为非官方译本;如有不妥,请联系删除。