AI 资源可以分为不同类型:
基础和现代 AI 书籍
像 AI Engineering、Machine Learning System Design Interview、Generative AI System Design Interview 和 Designing Machine Learning Systems 这样的书籍涵盖原则和实际系统模式。
研究和工程博客
关注 OpenAI Research、Anthropic Engineering、DeepMind Blog 和 AI2 以跟上新架构和应用研究的最新进展。
课程和 YouTube 频道
像 Stanford CS229 和 CS230 这样的课程建立坚实的 ML 基础。YouTube 频道如 Two Minute Papers 和 ByteByteAI 提供关于前沿主题的简洁、视觉学习。
AI 新闻通讯
订阅 The Batch (Deeplearning.ai)、ByteByteGo、Rundown AI 和 Ahead of AI 以了解重大 AI 更新、模型发布和研究亮点。
有影响力的研究论文
关键论文包括 Attention Is All You Need、Scaling Laws for Neural Language Models、InstructGPT、BERT 和 DDPM。每篇代表现代 AI 系统如何构建和训练的重大转变。
提示工程技术
LLM 强大,但它们的答案取决于问题如何问。提示工程添加清晰指令设置目标、规则和风格。这将模糊问题和任务转变为清晰、明确定义的提示。
关键提示工程技术
- 少样本提示:在提示中包含几个(输入→输出)示例对来教授模式
- 零样本提示:给精确指令没有示例来清楚说明任务
- 思维链(CoT)提示:在最终答案前请求逐步推理。这可以是零样本,我们明确包含”逐步思考”在指令中,或少样本,我们展示一些有逐步推理的示例
- 角色特定提示:分配角色,如”你是财务顾问”,为 LLM 设置上下文
- 提示层次:定义系统、开发者和用户指令有不同级别权威。系统提示定义高级目标并设置护栏,而开发者提示定义格式规则并定制 LLM 的行为
关键原则
- 开始简单,然后精炼
- 将大任务分解为更小、更可管理的子任务
- 对期望格式、语气和成功标准具体
- 提供刚好足够上下文移除歧义
现代存储系统
每个你构建的系统,无论是移动应用、数据库引擎还是 AI 管道,最终命中相同瓶颈:存储。今天存储世界远比”HDD vs SSD”多样化。
主存储(速度最重要)
这是内存最靠近 CPU。
- L1/L2/L3 缓存、SRAM、DRAM 和更新选项如 PMem/NVDIMM。极快但易失。电源下降时刻,一切消失。
本地存储(你机器自己的硬件)
HDD、SSD、USB 驱动器、SD 卡、光盘介质,甚至磁带(仍然用于归档备份)。
网络存储(跨网络共享)
- SAN 用于块级访问
- NAS 用于文件级访问
- 对象存储和分布式文件系统用于大规模集群。这是企业用于共享存储、集中备份和高可用性设置什么。
云存储(可扩展 + 托管)
- 块存储如 EBS、Azure Disks、GCP PD 用于虚拟机
- 对象存储如 S3、Azure Blob 和 GCP Cloud Storage 用于大规模非结构化数据
- 文件存储如 EFS、Azure Files 和 GCP Filestore 用于分布式应用
云数据库(存储 + 计算 + 可扩展性内置)
- 关系引擎如 RDS、Azure SQL、Cloud SQL
- NoSQL 系统如 DynamoDB、Bigtable、Cosmos DB
本文为学习目的的个人翻译,译文仅供参考。
原文链接:EP198: Best Resources to Learn AI in 2026。
版权归原作者或原刊登方所有。本文为非官方译本;如有不妥,请联系删除。