AI 资源可以分为不同类型:

基础和现代 AI 书籍

像 AI Engineering、Machine Learning System Design Interview、Generative AI System Design Interview 和 Designing Machine Learning Systems 这样的书籍涵盖原则和实际系统模式。

研究和工程博客

关注 OpenAI Research、Anthropic Engineering、DeepMind Blog 和 AI2 以跟上新架构和应用研究的最新进展。

课程和 YouTube 频道

像 Stanford CS229 和 CS230 这样的课程建立坚实的 ML 基础。YouTube 频道如 Two Minute Papers 和 ByteByteAI 提供关于前沿主题的简洁、视觉学习。

AI 新闻通讯

订阅 The Batch (Deeplearning.ai)、ByteByteGo、Rundown AI 和 Ahead of AI 以了解重大 AI 更新、模型发布和研究亮点。

有影响力的研究论文

关键论文包括 Attention Is All You Need、Scaling Laws for Neural Language Models、InstructGPT、BERT 和 DDPM。每篇代表现代 AI 系统如何构建和训练的重大转变。

提示工程技术

LLM 强大,但它们的答案取决于问题如何问。提示工程添加清晰指令设置目标、规则和风格。这将模糊问题和任务转变为清晰、明确定义的提示。

关键提示工程技术

  • 少样本提示:在提示中包含几个(输入→输出)示例对来教授模式
  • 零样本提示:给精确指令没有示例来清楚说明任务
  • 思维链(CoT)提示:在最终答案前请求逐步推理。这可以是零样本,我们明确包含”逐步思考”在指令中,或少样本,我们展示一些有逐步推理的示例
  • 角色特定提示:分配角色,如”你是财务顾问”,为 LLM 设置上下文
  • 提示层次:定义系统、开发者和用户指令有不同级别权威。系统提示定义高级目标并设置护栏,而开发者提示定义格式规则并定制 LLM 的行为

关键原则

  • 开始简单,然后精炼
  • 将大任务分解为更小、更可管理的子任务
  • 对期望格式、语气和成功标准具体
  • 提供刚好足够上下文移除歧义

现代存储系统

每个你构建的系统,无论是移动应用、数据库引擎还是 AI 管道,最终命中相同瓶颈:存储。今天存储世界远比”HDD vs SSD”多样化。

主存储(速度最重要)

这是内存最靠近 CPU。

  • L1/L2/L3 缓存、SRAM、DRAM 和更新选项如 PMem/NVDIMM。极快但易失。电源下降时刻,一切消失。

本地存储(你机器自己的硬件)

HDD、SSD、USB 驱动器、SD 卡、光盘介质,甚至磁带(仍然用于归档备份)。

网络存储(跨网络共享)

  • SAN 用于块级访问
  • NAS 用于文件级访问
  • 对象存储和分布式文件系统用于大规模集群。这是企业用于共享存储、集中备份和高可用性设置什么。

云存储(可扩展 + 托管)

  • 块存储如 EBS、Azure Disks、GCP PD 用于虚拟机
  • 对象存储如 S3、Azure Blob 和 GCP Cloud Storage 用于大规模非结构化数据
  • 文件存储如 EFS、Azure Files 和 GCP Filestore 用于分布式应用

云数据库(存储 + 计算 + 可扩展性内置)

  • 关系引擎如 RDS、Azure SQL、Cloud SQL
  • NoSQL 系统如 DynamoDB、Bigtable、Cosmos DB

本文为学习目的的个人翻译,译文仅供参考。

原文链接:EP198: Best Resources to Learn AI in 2026

版权归原作者或原刊登方所有。本文为非官方译本;如有不妥,请联系删除。