OpenAI,是一个人工智能研究的实验室,它是由非营利组织 Open AI inc 的母公司与一个盈利的子公司
OpenAI LP
组成。它的目标是实现通用人工智能,在实现这个目标的过程中,搞出了几个模型,一个是我们之前的播客讨论过的
GPT3,还有一个是最近带火 " 文字生成图片 " 的 Dall · E · 2。如果说 Google
搜索引擎开启了上一个周期的印钞机模式,下一代的巨头是不是像 OpenAI 和 Stability 这样的做 AI
底层模型的公司呢?
这轮由生成式 AI 主导的人工智能跟上一轮不太一样的地方是,上一轮 AI 很多靠 to B 的大公司获取收入,而 AIGC
的出现,不必像自动驾驶那样做到万无一失才可以应用,成立 18 个月的 Jasper.AI 就可以有 9000 万美元的收入。
AIGC 是指 Artificial Intelligence Generated Content,简单来说,就是用 AI
生成内容,比如 AI 生成图片、生成文字、生成代码、生成视频。本期节目,《硅谷 101》邀请到了中国知名加速器 AIGC 负责人晋英杰
Jack 和大厂 AIGC 战略胡家康,来聊聊他们对于中国和美国 AIGC 创业格局现状的看法跟未来展望。
晋英杰:最近正好在学习 Stable Diffusion,创始人是 Emad
Mostaque,是一个巴基斯坦裔,之前在伦敦求学,以前是一个对冲基金的经理。他预测未来 AI 是一个需要 Super
Data(超级数据), Super Talent (超级人才)和超强的算力支撑的一个属于企业的一种资产。
就像 Open AI、谷歌,它们会拥有这样的能力,所以他希望把这件事情做成一个开源的,让世界有平等 AI
能力的机构,有点像一个去中心化的 Foundation Model(基础模型)。
去年年底 DALL · E · 2 刚出现的时候 ,很多非 AI 背景的人开始关注到 AI 作画,但是AI
作画真正出圈或者疯狂火起来的时候,是在今年。 Stability 的 Stable Diffusion 推出来之后的一个月, AI
作画遍地开花。包括在 Photoshop 上出现的 AI 生成的功能。因为 Stable
Diffusion,它是从模型的权重上就完全开源,所有人都可以自己做部署、二次开发。而今天我们看到很多大模型 Foundation
Model(基础模型)是没有这样开源的。
开始的时候就像模型的推理时间,只能在 Nvidia GPU 上去做推理,可能需要 5 秒钟,但是现在不同的社区的成员的努力下,在
Stable Diffusion 里边可以把它压缩到 1.8 秒。也可以在 Apple 的 M1、M2 的 CPU,包括 Intel
的 CPU 上都可以去做推理。随着用户量的增加,他们开始做一些大企业的服务,包括获取更多的这种数据。
第四,GPT-3 2020 年推出之后,较快地形成了一个创业生态,一大堆产品去用它的 API
去得到用户的反馈来优化模型。这个事情在国内其实目前以文本生成角度来说,还没有形成一个可以和国外相媲美的应用生态。所以对于做技术的人来说,反馈和优化的空间也会相对的少一些,所以在这种技术迭代的加速度上,会比国外相对的落后一些。现在有很多的创业者进来,各类科技公司去提供很好的基础设施,在这种正循环的促进下,有希望在明年看到国内能够做起来类似海外的这样一个应用生态起来的。
《硅谷 101》 :Jack
你要不要给大家介绍一下为什么同样大家都是一个千亿级参数的训练量,Open AI
它能把这事给做成了。为什么它能够吸引到整个行业比较顶级的科学家?
所谓的通用人工智能就是人工智能在所有的领域都可以做得比人好,或者至少跟人能达到一样的治理水准。关于这样的一个愿景,在业界跟学界,包括一直到今天是有非常多的争议的。就像我知道有很多的教授,到现在都觉得通用人工智能的这种提法是有问题的,甚至有很多人就直接觉得马斯克要做这件事情,是因为他不懂
AI,包括扎克伯格也是这样怼过的。所以马斯克懂不懂 AI 我们不知道。我们可能会专门花一期的时间去讨论这件事情。
03生成式 AI:可生万物
《硅谷 101》:AIGC 有很多 To B 的应用,To C
也很有想象力,很有想象力。还有一个特别小众的领域的应用,《硅谷 101 》之前的一位嘉宾 Howie 提到,有一个考古学的教授发现
AIGC
在考古学里面太有用了。因为考古它的场景,它其实是一个不太清晰的发掘现场。但是他其实很需要根据现场去还原成一个清晰的、有过往想象力的东西,他发现用
DALLE2 的模型,就能更好地去帮他们看考古当时的场景是怎么样的,我还挺没有想到的。
晋英杰:有意思,不只是如此,Sam Altman 就聊到 AI
有可能的三个很关键的任务:
第一个是做科学家的工具,比如像 Alphafold;
第二个是解决每一个人日常的一些需求,比如 AI coding,做编程;
第三个就是 AI 自己演化成一个科学家。
<>艺术在我们看来是非常难的一件事情,但是 AI 做得很好;做一个科学家也是很难的事情,有可能 AI
也可以做好。我们今天去解决一些复杂的问题,比如阿尔兹海默综合征,我们如果有足够的数据的情况下,我会把它拆成一个个的子问题,在不同的学科里边寻找答案。每个科学家都会有一个自己的实验记录本,记录我可能为什么这里用的公式,那里边用了这样的一个物理学的原理,直到我们解开这样一个科学的谜题。
《硅谷 101》:刚刚你们提到的, AI 可以去赋能科学家这件事情,它到底是 AI 还是
AIGC?因为比如 AI,它可以参与到制药,它可以去探索蛋白质的结构,是就 Alphafold 做的那些事情,它是 AI 做的,它跟
AIGC 有没有关系?
晋英杰:我们今天话题虽然是 AIGC,但是红杉那篇文章的标题是 Generative AI:
A Creative New World。它不单单是生成内容,后边的东西可以是万物。
决定于你把什么样的模态放进去,你今天放代码,我就生代码;你今天放蛋白质三维结构,我就生蛋白质;你要是放科学推理,我就给你直接变成科学家。还是挺有意思的,我们可以往这一块去讨论。
《硅谷 101》:所以 AI
不仅仅可以生成文字、图片、视频,它也可以生成代码或者万物,就看我们想要它生成什么。