生成式人工智能 (AI) 是一种计算机程序,可以根据人类的提示生成内容。
阅读本文后,您将能够:
复制文章链接
生成式人工智能 (AI) 是一种深度学习模型,可以根据提示生成文本、图像、计算机代码和视听内容。
生成式 AI 模型经过了大量原始数据的训练——一般来说,这些数据的类型与构建生成式 AI 模型以生成的数据的类型相同。从这些数据中,它们学会了在给定任意输入时形成答复,而这些答复在统计学上很可能与这些输入相关。例如,一些生成式 AI 模型经过了大量文本的训练,以便能够以看似官能性和原创的方式响应书面提示。
简单地说,生成式 AI 可以像人类艺术家或作家一样对请求做出反应,但速度更快。至于这些模型生成的内容是否可以被视为“新的”或“原创的”还有待商榷,但在许多情况下,它们可以与人类的某些创造能力相媲美,甚至超越人类。
流行的生成式 AI 模型包括用于文本生成的 ChatGPT 和用于图像生成的 DALL-E。许多组织也建立了自己的模型。
生成式 AI 是机器学习的一种,这意味着它依靠数学分析来找到相关概念、图像或模式。然后,它利用这种分析来生成在统计上可能与收到的提示相似或相关的内容。
具体来说,生成式 AI 依赖于一种名为深度学习的机器学习类型。深度学习模型十分强大,足以从无标签数据中学习。它们使用一种名为神经网络的计算架构。这种架构由多个节点组成,节点之间相互传递数据,就像人脑通过神经元传递数据一样。神经网络能够执行极其复杂和精细的任务。
能够解释语言的生成式 AI 模型需要理解的不仅仅是单个单词。它们必须能够解读整个句子、段落和文档。早期的机器学习模型很难理解整个句子,当它们到达句子末尾时,就会“忘记”了开头,导致解读错误。
现代生成式 AI 模型使用一种称为 Transformer 的特殊神经网络。它们使用一种名为自注意力机制的功能来检测序列中元素的连接方式。Transformer 使生成式 AI 模型能够处理大块文本并结合上下文,而不是只看单个单词和短语。
生成式 AI 模型要想运行良好,就必须输入大量数据:在大多数情况下,这些数据比人类一生所能处理的数据还多。例如,大型语言模型 ChatGPT 是在数百万份文档上训练出来的。图像生成器可能需要在数百万张图像的基础上进行训练,而代码生成器则需要在数十亿行代码的基础上进行训练。
这些训练数据存储在矢量数据库中。在此类数据库中,数据点以矢量形式存储——或者说,是多维域中的一组坐标。正如经度和纬度能让查看地图的人找到附近的地点一样,将数据存储为向量能让机器学习模型找到“附近的”数据点。这样一来,模型就能联想并理解单词、图像、声音或任何其他类型内容的上下文。
一旦生成式 AI 模型达到一定的微调水平,它就不需要那么多数据就能生成结果。例如,语音生成 AI 模型可能是在数千小时的语音录音基础上训练出来的。但一旦经过微调,有些模型只需要几秒钟的样本录音就能逼真地模仿某人的声音。
生成式 AI 模型具有许多潜在优势,因此越来越受欢迎。这些优势包括但不限于:
不过,生成式 AI 能也有不足之处,其中包括:
“大型语言模型”(LLM) 是处理语言并能生成文本的生成式 AI 模型的专业术语,包括人类口语和编程语言。流行的 LLM 包括 ChatGPT(来自 OpenAI)、Llama(来自 Meta)、Bard(来自 Google)、Copilot(来自 GitHub)和 Bing Chat(来自 Microsoft)。
AI 图像生成器的工作原理与 LLM 类似,但针对的是图像而不是文本。DALL-E 和 Midjourney 是基于 AI 的流行图像生成器的两个例子。
Cloudflare 允许开发人员和企业建立自己的生成式 AI 模型。Cloudflare 提供 Vectorize 和 Cloudflare Workers AI,前者可让开发人员根据自己的数据在 Cloudflare 全球网络上生成和存储嵌入,后者可在全球 GPU 网络上运行生成式 AI 任务。进一步了解 Cloudflare 如何实现下一代生成式 AI。