跳转到内容

进阶:a16z推荐进阶经典

作者:Derrick HarrisMatt BornsteinGuido Appenzeller

原文地址:https://a16z.com/2023/05/25/ai-canon/

译者:通往 AGI 之路

前半部分:目录:a16z 推荐入门经典

技术深度探讨:了解 transformers 和大模型

有无数的资源(有些内容更好些)试图解释大语言模型(LLMs)的工作原理。以下是我们的一些最爱,面向广泛的读者/观众。

讲解资源

课程

  • Stanford CS25:Transformer 技术联盟,关于 Transformer 技术的在线研讨会。
  • Stanford CS324:由 Percy Liang, Tatsu Hashimoto 和 Chris Re 主讲的《大型语言模型》课程,涵盖了大型语言模型的各种技术和非技术方面。

参考和评论

  • Predictive learning, NIPS 2016:在这次早期的演讲中,Yann LeCun 强烈主张无监督学习是大规模 AI 模型架构的关键元素。跳到 19:20 查看他著名的蛋糕类比,这仍然是现代 AI 最好的心智模型之一。
  • AI for full-self driving at Tesla::另一个经典的 Karpathy 演讲,这次他介绍了特斯拉的数据收集引擎。从 8:35 开始,他进行了一次伟大的 AI 演讲,解释了为什么长尾问题(在这种情况下是停车标志检测)如此困难。
  • The scaling hypothesis:大型语言模型最令人惊讶的方面之一:规模化(增加更多的数据和计算)会继续提高准确性。GPT-3 是第一个清楚展示这一点的模型,Gwern 的文章很好地解释了其背后的直觉。
  • Chinchilla's wild implications:名义上是对重要的 Chinchilla 论文的解释,这篇文章触及了 LLM 规模化的大问题的核心:我们是否正在耗尽数据?这篇文章在上面文章的基础上,给出了对规模化规律的新鲜视角。
  • A survey of large language models:对当前 LLM 的全面分析,包括发展时间线、规模、训练策略、训练数据、硬件等。
  • Sparks of artificial general intelligence: Early experiments with GPT-4:微软研究部对当前最先进的 LLM(GPT-4)相对于人类智能能力的早期分析。
  • The AI revolution: How Auto-GPT unleashes a new era of automation and creativity:介绍 Auto-GPT 和 AI Agents。这项技术还很早期,但重要的是要理解它——它使用互联网访问和自我生成的子任务来解决特定的、复杂的问题或目标。
  • The Waluigi Effect:名义上是对“Waluigi 效应”的解释(即,为什么 LLM 行为中会出现“另我”)【注:在回应不同的提示或问题时,它可能会表现出不同的“个性”或“角色”】的解释,但其主要的有趣之处在于它对 LLM 提示理论的深入研究。

使用 LLM 进行构建的实用指南

新的应用栈正在以 LLM 为核心形成。虽然目前还没有很多关于此主题的正规教育课程,但我们找到了一些最有用的资源。

参考

  • Build a GitHub support bot with GPT3, LangChain, and Python:这是关于现代 LLM 应用栈的最早的公开解释之一。这里的一些建议可能已经过时,但在很多方面,它开启了新一代 AI 应用的广泛接受和实践。
  • Building LLM applications for production:Chip Huyen 讨论了构建 LLM 应用的许多关键挑战,如何解决这些挑战,以及哪种类型的用例最有意义。
  • Prompt Engineering Guide:对于任何编写 LLM 提示的人——包括应用开发者——这是最全面的指南,对一些流行模型提供了具体示例。如果想要更轻松、更富有对话性的处理,可以尝试阅读 Brex 的提示工程指南
  • Prompt injection: What’s the worst that can happen? 可能会发生什么最糟糕的事情?提示注入是 LLM 应用潜在的严重安全漏洞,目前还没有完美的解决方案。Simon Willison 在这篇文章中对这个问题给出了最终的描述。Simon 关于 AI 的几乎所有内容都是非常棒的。
  • OpenAI cookbook:对于开发者来说,这是使用 OpenAI API 的指南和代码示例的最权威收集。它会不断更新新的代码示例。
  • Pinecone learning center:许多 LLM 应用都是基于向量搜索范式。尽管 Pinecone 的学习中心是其品牌所提供的内容,但它提供了如何在这种模式中构建的最有用的指导。
  • LangChain docs:作为 LLM 应用的默认协调层,LangChain 将堆栈中的所有其他部分连接在一起。因此,他们的文档对于理解整个技术栈以及各部分如何协同工作提供了实用的参考。

课程

  • LLM Bootcamp:这是一个实践课程,由 Charles Frye、Sergey Karayev 和 Josh Tobin 主导,专注于构建基于 LLM 的应用。
  • Hugging Face Transformers:这是一个指南,教你如何使用 Hugging Face transformers 库中的开源 LLM

LLM 基准

  • Chatbot Arena:这是一个由 UC Berkeley 的团队领导的,采用 Elo 评分系统对热门 LLM 进行排名的平台。用户也可以通过进行模型间的直接比较参与其中。
  • Open LLM Leaderboard:是一个由 Hugging Face 提供的排行榜,比较开源 LLM 在一系列标准基准和任务中的表现。

市场分析

我们都为生成式人工智能所能创造的东西感到惊叹,但仍然有很多问题需要回答。哪些产品和公司将生存和繁荣?艺术家会发生什么变化?公司应该如何利用它?它将如何影响就业和整个社会?以下是一些试图回答这些问题的尝试。

a16z 思考

其他观点


里程碑式的研究成果

我们今天所见的许多令人惊奇的 AI 产品,都是由大公司和顶级大学的专家进行的令人惊奇的研究成果。最近,我们也看到了个人和开源社区对流行项目进行的卓越工作,例如,通过创建自动化代理或将大模型移植到算力更弱的硬件上运行。

以下是这些论文和项目的集合,供真正想深入研究生成性 AI 的人参考。(对于研究论文和项目,我们还包括了相关的博客文章或网站的链接(如果有的话),这些内容往往以更高的水平做出了解释。我们也包括了原始出版年份,以便您可以追踪基础研究的发展。)

大型语言模型

新模型

模型改进(例如微调、检索、注意力)

图像生成模型

Agents(智能体代理)

其他数据模态

代码生成

视频生成

人类生物学和医学数据

音频生成

多维图像生成

特别感谢 Jack SoslowJay RughaniMarco MascorroMartin CasadoRajko Radovanovic Vijay Pande 对本文的贡献,也感谢整个 a16z 团队总是能对 AI 的最新进展进行积极的讨论。还要感谢 Sonal Chokshi 和加密货币团队在公司建立了一系列经典内容。