出品:虎嗅科技组
作者:陈伊凡齐健
头图:电影《华尔街之狼》

  经历了半年的 AI 洗礼,或许很难找到比“应激反应”更恰当的词,来形容今天科技行业中每个人的状态——紧张、刺激、压力。

  “应激反应”, 是指生物体在遭遇外部环境压力或威胁时,为了维持身体的稳态而产生的一系列反应。它是生物为了适应环境、确保生存所产生的一种自然反应。这种反应可以是短暂的,也可以是长期的。

  7 月 26 日,OpenAI 官方推特宣布,安卓版 ChatGPT 已在美国、印度、孟加拉国和巴西提供下载,并计划在近期推广至更多国家。ChatGPT 正在拓展渠道,获得更多的用户和更强的使用粘性,生成式 AI 的浪潮在持续推高。

  7 月初,上海的 2023 世界人工智能大会(WAIC)上,一位创业公司的技术人员正在展厅里穿梭,她计划为公司寻找一个性价比高的国产芯片解决方案,用来做大模型训练。

  “我们有 1000 张 A100,但完全不够。”她告诉虎嗅。

  A100 是英伟达的一款高端 GPU,也是 ChatGPT 生长的硬件基础。一些公开数据显示,在训练 GPT 系列模型的过程中,OpenAI 所使用的英伟达 GPU 数量约 2.5 万个。由此,要做大模型,要先评估能拿到多少张 A100 的显卡,几乎成了这个行业的惯例。

  哪里有 GPU?哪里有便宜算力?这只是 2023WAIC 大会上众多问题的缩影。

  过去半年里所有被“应激”到的人,几乎都渴望能够在这场“盛会”中找到更多关于 AI 的答案。

图片
2023WAIC 现场

  一家芯片展商的技术人员告诉虎嗅,在 WAIC 大会的几天里,他们的“大模型”展台前,来了好些产品经理,他们希望在这里为公司的大模型业务寻找产品定义。

  5 月 28 日在中关村论坛上,中国科学技术信息研究所发布的《中国人工智能大模型地图研究报告》显示,截至 5 月底,中国 10 亿级参数规模以上的大模型发布了 79 个。在此后的两个月里,又有阿里云的通义万相、华为云的盘古 3.0、有道“子曰”等一系列 AI 大模型发布,据不完全统计目前国内的 AI 大模型已超过 100 个。

  国内企业争先恐后发布 AI 大模型的动作,就是“应激反应”最好的体现。这种“反应”带来的焦虑,正在传导给行业里几乎所有相关人员,从互联网巨头的 CEO 到 AI 研究机构的研究员,从创投基金合伙人到 AI 公司的创始人,甚至是很多 AI 相关的法律从业者,以及数据、网络安全的监管层。

  对行业之外的人而言,这可能只是短暂的狂欢,但在如今,又有多少人敢说自己置身 AI 之外。

  AI 正在开启一个新时代,一切都值得用大模型重塑一遍。越来越多的人开始思考技术扩散之后的结果。

  资金涌入,飞轮已现

  ChatGPT 诞生的一个月内,出门问问创始人李志飞两赴硅谷,逢人必谈大模型,在与虎嗅交谈时,李志飞直言这是他最后一次“All in”。

  2012 年,李志飞创立出门问问,这家以语音交互、软硬件结合为核心的人工智能公司经历了中国两次人工智能浪潮的起伏。在上一波人工智能最火热的那一段时间,出门问问的估值一度被推至独角兽级别,但此后也经历了一段落寞期,直到 ChatGPT 的出现,才给沉寂多年的人工智能行业撕开了一道口子。

  在一级市场,“热钱正在涌进来。”

  这是过去半年中,谈及大模型时的行业共识。奇绩论坛创始人陆奇认为,AI 大模型是一个“飞轮”,未来将是一个模型无处不在的时代,“这个飞轮已经启动”,而最大的推动力就是资本。

  7 月初,商业信息平台 Crunchbase 发布的数据显示,分类为 AI 的公司在 2023 年上半年筹集了 250 亿美元,占全球融资的 18%。虽然这一数字与 2022 年上半年的 290 亿美元相比有所下降,但 2023 年上半年全球各行业的总融资额比 2022 年同比下降了 51%,由此可见 AI 领域的融资额在全球融资总额中的占比,几乎提高了一倍。Crunchbase 在报告中这样写到:“如果没有 ChatGPT 引发的人工智能热潮,2023 年的融资额会更低。”

  到目前为止,2023 年 AI 行业最大的一笔融资,就是微软在 1 月对 OpenAI 投资的 100 亿美元。

  虎嗅根据公开数据统计,在美国的大模型公司创业中,Inflection AI 或将成为人工智能领域融资量仅次于 Open AI 的第二大初创公司,在其之后分别是,Anthropic(15 亿美元),Cohere(4.45 亿美元)、Adept(4.15 亿美元)、Runway(1.955 亿美元)、Character.ai(1.5 亿美元)和 Stability AI(约 1 亿美元)。

  在中国,2023 年上半年国内人工智能行业的公开投融资事件共有 456 起。而这项统计在 2018 年-2022 年的 5 年间分别是 731、526、353、631 和 648。

图片
上半年国内人工智能行业公开投融资事件

  另一个引发飞轮的事件则是 ChatGPT 放出 API 接口。当 OpenAI 在 3 月首次开放 ChatGPT 的 API 接口时,AI 行业内外对此几乎形成共识:行业要变天了。随着更多应用接入大模型,AI 之上正在长出更加繁茂的森林。

  “做大模型和做应用本身就应该分开”,投资人的嗅觉总是敏锐的,在源码资本执行董事陈润泽看来,AI 是一个与半导体分工一样的逻辑,AI 大模型的繁荣之后,很快就会看到 AI 应用的一波繁荣。

  今年年初,陈润泽与同事一起前往硅谷时发现,硅谷声名显赫的创业孵化器 Y Combinator(OpenAI 首席执行官 Sam Altman 曾在这家孵化器任总裁多年),有一半的项目都转型做生成式 AI 了。对于大模型的热情,丝毫不逊于如今大洋彼岸的中国。

  不过,他也发现在美国无论是资本还是创业者,相比于大模型创业,更看好基于大模型所做的生态应用,毕竟在这个赛道,已经跑出了诸如 OpenAI 这样的公司,与此同时,美国有很强的 ToB 应用生态土壤,因此更多的美国公司正在尝试基于大模型的生态做企业应用。

  陈润泽的观察正在得到证实,大模型服务平台 OpenCSG 联合创始人陈冉告诉虎嗅,如今,美国湾区 90% 以上的公司已经把大模型能力用到方方面面。至于中国,陈冉认为,在年底之前很多的客户也都会用起来。

  今年 3 月左右,陈润泽和团队开始尝试在国内寻找基于大模型做应用的公司,但他发现这样的公司很少。大量资本进入了人工智能行业,但如果追溯这些资金的流向会发现,更多的钱仍集中在头部几家公司中。

  “即便是现在,10 个与生成式 AI 相关的项目,能投 1-2 个也已经是很不容易了。”除了源码资本,虎嗅也与多位硬科技投资人交流,他们都表示,虽然项目看得多,但真正靠谱的凤毛麟角。

  应用端的这种态度,在很多业内人士看来,已是常态。

  思必驰联合创始人俞凯认为,表面看似热闹的赛道,其实更多的是名义上的竞争,结果无非两种情况:“一种是为了融钱,纯资本导向;另一种是做全域通用大模型的公司,确实需要喊,不喊的话别人不会知道。”

  国内的一些统计数据也正在说明这个问题,根据第三方机构烯牛数据统计,截至 2023 年 7 月,国内有 AIGC 公司 242 家,1 月以来 AIGC 赛道融资事件 71 起。而 AI 大模型赛道上的公司有 67 家,从 ChatGPT 发布到现在,融资事件只有 21 起。

图片
AIGC 赛道和 AI 大模型赛道自 ChatGPT 发布后的融资事件|数据来源:烯牛数据

  “现在国内 AI 市场上,好的标的太少了。”一位投资人如此告诉虎嗅——好项目太贵,便宜的又不靠谱。虽然目前国内发布的 AI 大模型数量过百,但国内一众大模型公司中,获得巨额融资的并不多,甚至屈指可数。

  很多 AI 投资到最后都变成了投人——曾经的独角兽公司创始人、互联网大佬、具备大模型相关创业经验的人等。

国内 AI 大模型相关公司部分统计

  今年的一众 AI 明星项目中,智谱 AI、聆心智能、深言科技和面壁智能,都是清华实验室孵化的公司。深言科技、面壁智能两家公司均成立于 2022 年,且有 AI 行业内知名学者的技术背书。

  比这几家清华系 AI 公司成立时间更短的是一些互联网行业大佬创立的 AI 公司,光年之外、百川智能和零一万物均成立于这波大模型热潮开始之后。

  美团联合创始人王慧文在 2023 年年初成立的光年之外,一度融资 5000 万美元,已是彼时中国大模型行业为数不多的融资案例。与智谱 AI、西湖心辰这类已有大模型为基础的公司不同,光年之外是 2023 年 2 月开始,从零开始做大模型,其难度可想而知,6 月 29 日,美团公告宣布收购光年之外的全部权益,总代价包括现金约 2.33 亿美元(合人民币 16.7 亿元)、债务承担约 3.67 亿元、及现金 1 元。

  “起码要有自然语言处理背景的人,有一定大模型训练实操经验的人,以及数据处理、大规模算力集群等方面的专业人才。如果同时还要做应用,那应该还要有对应领域的产品经理和运营人才。”陈润泽如此描述一个大模型核心团队的标配。

  大公司的 AI 赌注

  过去半年中,老牌互联网大厂们的 AI 新闻漫天纷飞。对 AI 大模型的投入,看似是在追热点,但如百度、阿里、华为这样的大公司,在 AI 上投下的赌注,显然不是跟风。

  巨头们在 AI 上的押注很早就已开始,对这些公司来说,AI 并不是一个新鲜的话题。虎嗅根据企查查数据不完全统计,各大厂在 2018 年开始就对人工智能相关的企业有不同程度的投资,从投资企业来看,大多是人工智能应用方面的企业,尽管涉及到一部分 AI 芯片企业,但是数量并不多,涉及大模型方面的企业几乎没有,并且大厂所投资的人工智能相关的公司大多与其业务息息相关。

三家互联网大厂投资 AI 相关公司情况|数据来源:企查查

  2017 年阿里达摩院成立,研究对象涵盖机器智能、智联网、金融科技等多个产业领域,将人工智能的能力赋能到阿里的各个业务线中。2018 年,百度提出了“All in AI”的战略。

  有所不同的是,生成式 AI 的出现,似乎是一个转折点。对于拥有数据、算力和算法资源优势的科技巨头来说,人工智能对他们已经不光是赋能场景,而是需要承担基础设施的角色,毕竟,生成式 AI 的出现,意味着针对人工智能产业的分工已经开始。

  以百度、阿里、华为、腾讯,四家云供应商为代表的大厂,虽然都宣布了各自的 AI 策略,但明显各有侧重。

  在过去的半年时间里,巨头纷纷发布自己的大模型产品。对于百度、阿里这样的大厂来说,他们入局大模型的时间并不算晚,基本在 2019 年。

  百度自 2019 年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。阿里的通义千问大模型也是始于 2019 年。除了百度和阿里的通用大模型,6 月 19 日,腾讯云发布了行业大模型的研发进展。7 月 7 日,华为云发布了盘古 3.0 行业大模型产品。

  这些侧重也与各家的整体业务,云战略,以及在 AI 市场里的长期布局有所呼应。

  百度的主线业务盈利能力在过去的 5 年中,出现了较大波动。百度很早就看到了基于搜索的广告业务在国内市场中的问题,对此,百度选择了大力投入 AI 技术寻找新机会。这些年来,百度不仅邀请过吴恩达、陆奇等业界大佬出任高管,在自动驾驶上投入热情也远超其他大厂。如此关注 AI 的百度,势必会在这波大模型之争里重手投注。

  阿里对通用大模型同样表现出了极大的热情。一直以来,阿里云一直被寄予厚望,阿里希望走通技术路线创造集团的第二增长曲线。在电商业务竞争日趋激烈,市场增长放缓的大环境下,依云而生的 AI 产业新机遇,无疑是阿里云在国内云市场上再发力的好机会。

  相比百度和阿里,腾讯云在大模型方面选择了优先行业大模型,而华为云则公开表示只会关注行业大模型。

  对于腾讯来说,近年来主营业务增长稳中向好。在通用大模型的前路尚不明朗的阶段,腾讯对于 AI 大模型的投注相对谨慎。马化腾在此前的财报电话会上谈及大模型时曾表示:“腾讯并不急于把半成品拿出来展示,关键还是要把底层的算法、算力和数据扎扎实实做好,而且更关键的是场景落地。”

  另一方面,从腾讯集团的角度看,腾讯目前有 4 所 AI Lab,去年也发布了万亿参数的混元大模型,腾讯云投身行业大模型方面的动作,更像是一种“不把鸡蛋放在同一个篮子里”的投注策略。

  对于华为来说,一直以来都是重手投注研发,过去 10 年里华为在研发方面的总投入超过 9000 亿元。但由于手机业务遇到发展障碍,华为在很多技术研发上的整体策略或也正在面临调整。

  一方面手机业务是华为C端技术最大的出口,如果手机业务不为通用大模型买单的话,那么华为研发通用大模型的动力就会明显下降。而对于华为来说,把赌注押在能快速落地变现的行业大模型,似乎是这场 AI 博弈当中的最优解。正如华为云 CEO 张平安所说“华为没有时间作诗”。

  不过,对科技巨头来说,无论赌注多大,只要能赌对,就能够先一步抢占基础设施的市场份额,从而在人工智能时代获得话语权。

  拿着锤子找钉子

  对于商业公司来说,所有的决策仍然落到经济账上。

  即便是一笔不小的投入,越来越多有远见的公司创始人也意识到,这是一项未来必须要做的事情,即便前期投入可能完全看不到回报。

  AI 大模型的研发需要一笔不小的投入,但越来越多企业创始人、投资人都认为,这是一项”必要投入”,即便眼下完全看不到回报。

  由此,很多在上一波 AI 浪潮下诞生的人工智能公司,都在沉寂良久之后看到了新的曙光。

  “3 年前,大家都说 GPT-3 是通向通用人工智能的可能性。”李志飞在 2020 年就开始带着一班人马研究 GPT-3,彼时出门问问正处在一个发展的转折点,他们希望探索新业务,但经过一段时间的研究之后,李志飞的大模型项目中止了,原因之一是当时模型不够大,另外就是找不到商业落地场景。

  不过,2022 年底 ChatGPT 问世以后,李志飞仿佛被扎了一剂强心针,因为他和所有人一样,看到了大模型的新机会。今年 4 月,出门问问发布了自研的大模型产品——序列猴子。眼下,他们准备拿着新发布的大模型“序列猴子”冲刺港交所,出门问问已在 5 月末递交了招股书。

  另一家老牌 AI 公司也在跟进,去年 7 月,思必驰向科创板递交了 IPO 申请,在今年 5 月被上市审核委员会否决。

  俞凯坦言,就连 OpenAI,在 GPT2 阶段也是用微软的 V100 训练了将近一年的时间,算力和 A100 差好几个量级。思必驰在大模型前期积累阶段,也是用更为经济的卡做训练。当然,这需要时间作为代价。

  相比于自研大模型,一些应用型公司有自己的选择。

  一家在线教育公司的总裁张望(化名)告诉虎嗅,过去半年,他们在大模型应用场景的探索上不遗余力,但他们很快发现在落地过程中存在诸多问题,例如成本与投入。这家公司的研发团队有 50-60 人,开始做大模型研究以来,他们扩充了研发团队,新招了一些大模型方面的人才,张望说,偏底层模型方面的人才很贵。

  张望从未想过从头开发大模型,考虑到数据安全和模型稳定性等问题,他也不打算直接接入 API 做应用。他们的做法是参考开源大模型,用自己的数据做训练。这也是很多应用公司目前的做法——在大模型之上,用自己的数据做一个行业小模型。张望他们从 70 亿参数的模型开始,做到 100 亿,现在在尝试 300 亿的模型。但他们也发现,随着数据量增多 ,大模型训练会出现的情况是,可能新版本不如上一个版本,就要对参数逐一调整,“这也是必须要走的弯路。”张望说。

  张望告诉虎嗅,他们对于研发团队的要求就是——基于公司的业务探索 AI 大模型场景。

  这是一种拿着“锤子”找“钉子”的方法,但并不容易。

  “目前最大的难题是找到合适的场景。其实有很多场景,即便用了 AI,效果也提升不了太多。”张望说,例如在上课的场景中,可以用 AI 大模型赋能一些交互模式,包括提醒学员上课功能、回答问题和打标签等,但他们试用了 AI 大模型之后,发现精准度不行,理解能力和输出能力并不理想。张望的团队尝试过一段时间后,决定在这个场景里暂时放弃 AI。

  另一家互联网服务商小鹅通,也在 AI 大模型爆发后第一时间开展了相关业务的探索。小鹅通的主要业务是为线上商家提供数字化运营工具,包括营销、客户管理以及商业变现。

  小鹅通联合创始人兼 COO 樊晓星告诉虎嗅,今年 4 月,当越来越多的应用基于生成式 AI 诞生时,小鹅通看到了这个技术背后的潜力,“例如 MidJourney,生成式 AI 对于设计图像生成方面的提效确实有目共睹。”樊晓星她们在内部专门组织了 AI 研究的业务线,寻找与自身业务相关的落地案例。

  樊晓星说,在将大模型接入业务的过程中,她所考虑的就是成本和效率,“大模型的投入成本还是蛮高的。”她说。

  互联网行业的“钉子”算是好找的,AI 落地真正的难点还是在工业、制造这样的实体产业。

  俞凯告诉虎嗅,这一波 AI 浪潮仍然是螺旋式上升、波浪式前进,在产业落地上面的矛盾一点都没变化,只是换了一个套壳而已。所以从这个意义上看,这两次 AI 浪潮的规律是相同的,最好的办法就是学习历史——“上一波 AI 浪潮的教训,这次就别再犯了。”

  虽然很多厂商在 AI 大模型的落地方面都喊出了“产业先行”的口号,但很多实体产业的场景真的很难与目前的 AI 大模型相匹配。比如在一些工业检测场景应用的 AI 视觉检测系统,即便对 AI 模型的需求没有高到 10 亿参数的量级,但初期的训练数据仍然捉襟见肘。

  以一个简单的风电巡检场景为例,一个风场的巡检量达到七万台次,但同样的裂痕数据,可能只会出现一次,机器可以学习的数据量是远远不够的。扩博智能风电硬件产品总监柯亮告诉虎嗅,目前风机叶片的巡检机器人还做不到 100% 的精确分析叶片裂痕,因为可供训练和分析的数据量太小了,要形成可靠的全自动巡检和识别,还需要大量的数据积累和人工分析。

  不过,在工业数据积累较好的场景中,AI 大模型已经可以做到辅助管理复杂的三维模型零件库了。国内某飞机制造企业的零件库就已经落地了一款基于第四范式“式说”大模型的零件库辅助工具。可以在十万余个三维建模零件中,通过自然语言实现三维模型搜索,以三维模型搜三维模型,甚至还能完成三维模型的自动装配。这些功能,在很多卡住制造业脖子的 CAD、CAE 工具中都需要经过多步操作才能完成。

  今天的大模型和几年前的 AI 一样面临落地难题,一样要拿着锤子找钉子。有人乐观地相信,今天的锤子和过去完全不一样了,但到了真金白银地为 AI 付费时,结果却有些不同。

  彭博社在 7 月 30 日发布的 Markets Live Pulse 调查显示,在 514 名受调投资者中,约 77% 的人计划在未来六个月内增加或保持对科技股的投资,且只有不到 10% 的投资者认为科技行业面临严重的泡沫危机。然而这些看好科技行业发展的投资者中,却只有一半人对 AI 技术持开放的接受态度。

  50. 2% 的受访者表示,目前还不打算为购买 AI 工具付费,多数投资公司也没有计划将 AI 大范围应用到交易或投资中。

  卖铲子的人

  “如果你在 1848 年的淘金热潮里去加州淘金,一大堆人会死掉,但卖勺子和铲子的人,永远可以赚钱。”陆奇在一次演讲时说。

  高峰(化名)想当这样的“卖铲子的人”,准确地说,是能够“在中国卖好铲子的人”。

  作为一名芯片研究者,高峰大部分科研时间都在 AI 芯片上。过去一两个月,他感到了一种急迫性——他想做一家基于 RISC-V 架构的 CPU 公司。在一家茶室,高峰向虎嗅描绘了未来的图景。

  然而,要从头开始做 AI 芯片,无论是在芯片界,还是在科技圈,都像是一个“天方夜谭”。

  当 AI 大模型的飞轮飞速启动时,背后的算力逐渐开始跟不上这一赛道中玩家的步伐了。暴涨的算力需求,使英伟达成了最大的赢家。但 GPU 并非解决算力的全部。CPU、GPU,以及各种创新的 AI 芯片,组成了大模型的主要算力提供中心。

  “你可以把 CPU 比喻为市区,GPU 就是开发的郊区。”高峰说,CPU 和 AI 芯片之间,需要通过一个叫做 PCIE 的通道连接,数据传给 AI 芯片,然后 AI 芯片再把数据回传给 CPU。如果大模型的数据量变大,一条通道就会变得拥挤,速度就上不去,因此需要拓宽这条路,而只有 CPU 能够决定这条通路的宽窄,需要设置几车道。

  这意味着,中国在大模型上,即便突破了 AI 芯片,仍有最关键的 CPU 难以破局。哪怕是在 AI 训练上,越来越多的任务可以被指派给 GPU 承担,但 CPU 依旧是最关键的“管理者”角色。

图片
2023WAIC 大模型展区展出的部分国产芯片

  自 1971 年英特尔造出世界上第一块 CPU 至今 50 余年,在民用服务器、PC 市场,早已是英特尔和 AMD 的天下,英特尔更是建立起涵盖知识产权、技术积累、规模成本、软件生态于一体的整个商业模式壁垒,且这种壁垒从未衰退。

  要完全抛开 X86 架构和 ARM 架构,基于一个全新架构研发完全自主的 CPU 芯片,可以说是“九十九死一生”,基于 MIPS 指令集的龙芯,在这条路上走了 20 多年,更不用说是 RISC-V 这样未被充分开垦和验证过的开源架构。

  指令集,就像一块块土地,基于指令集开发芯片,就相当于是买地盖房子。X86 的架构是闭源的,只允许 Intel 生态的芯片,ARM 的架构需要支付 IP 授权费,而 RISC-V 是免费的开源架构。

  产业界和学术界已经看到了这样的机会。

  2010 年,加州伯克利两位教授的研究团队从零开始开发了一个全新的指令集,就是 RISC-V,这个指令集完全开源,他们认为 CPU 的指令集不应该属于任何一家公司。

  “RISC-V 或许是中国 CPU 的一道曙光。”高峰说。2018 年,他在院所孵化了一家 AI 芯片公司,彼时他表示,自己不想错过 AI 浪潮发展的机会,这一次,他依然想抓住,而这个切入点,就是 RISC-V。在大模型以及如今国产替代的时代,这个需求显得更为紧迫,毕竟,极端地考虑一下,如果有一天,中国公司用不了 A100 了,又该怎么办。

  “如果要取代 ARM 和 X86,RISC-V 的 CPU 需要性能更强,也需要和 Linux 上做商业操作系统的人参与到代码的开发中。”高峰说。

  高峰不是第一个意识到这个机会的人,一位芯片行业投资人告诉虎嗅,他曾与一家芯片创业公司创始人聊起,用 RISC-V 的架构去做 GPU 的机会。如今,在中国已有一些基于 RISC-V 架构做 GPU 的公司,但生态依旧是他们面临的最大的问题。

  “Linux 已经示范了这条路是可以走通的。”高峰说,在 Linux 这套开源操作系统中,诞生了红帽这样的开源公司,如今许多云服务都建立在 Linux 系统上。“需要足够多的开发者。”高峰提出了一个方法。这条路很难,但走通了,将是一条光明的道路。

  飞轮转得太快了

  大模型的“应激反应”下,感到急迫的不光是高峰。

  国内某 AI 大模型公司联创告诉虎嗅,今年初他们也曾短暂上线过一款对话大模型,但随着 ChatGPT 的升温,有关部门提高了对大模型安全性的重视,并对他们提出了很多整改要求。

  “在没有特别明确的监管政策出来之前,我们不会轻易把产品开放给普通用户,主要还是 To B 的逻辑。”左手医生 CEO 张超认为,在《管理办法》出台之前,贸然将生成式 AI 产品开放给C端用户,风险很大。“现阶段,我们一方面在持续迭代优化,另外一方面也在持续关注政策、法规,保证技术的安全性。”

  “生成式 AI 的监管办法还不明确,大模型公司的产品和服务普遍很低调。”一家数字化技术供应商,在 6 月发布了一款基于某云厂商通用大模型开发的应用产品,在发布会上,该公司技术负责人向虎嗅表示,他们被这家云厂商要求严格保密,如果透露使用了谁的大模型,他们会被视为违约。而对于为何要对案例保密,这位负责人分析,可能很大一部分原因是要规避监管风险。

  在全球都对 AI 提高警惕的当下,任何市场都不能接受监管的“真空期”。

  7 月 13 日,网信办等七个部门正式发布了《生成式人工智能服务管理暂行办法》(下文简称“《管理办法》”),该办法自 2023 年 8 月 15 日起施行。

  “《管理办法》出台后,政策会从问题导向转为目标导向发展就是我们的目标。”观韬中茂律师事务所合伙人王渝伟认为,新规是重“疏”而不重“堵”。

  浏览美国的风险管理库,是王渝伟每天必需的功课,“我们正在为利用 GPT 等大模型进行细分行业的商业应用提供风控合规的方案,建立一套合规治理框架。”王渝伟说。

  美国的 AI 巨头们正排着队向国会表忠心。7 月 21 日,谷歌、OpenAI、微软、Meta、亚马逊、AI 创业公司 Inflection、Anthropic,七家最具影响力的美国 AI 公司,就在白宫签署了一份自愿承诺。保证在向公众发布 AI 系统前允许独立安全专家测试他们的系统。并与政府和学术界分享有关他们系统安全的数据。他们还将开发系统,当图像、视频或文本是由 AI 生成时向公众发出警告,采用的方法是“加水印”。

图片
7 家美国 AI 巨头排代表在白宫签署 AI 承诺

  此前,美国国会听证会上,OpenAI 的创始人山姆·奥特曼表示,需要为人工智能模型创建一套安全标准,包括评估其危险能力。例如,模型必须通过某些安全测试,例如它们是否可以“自我复制”和“渗透到野外”。

  或许山姆·奥特曼自身也没有想到,AI 的飞轮会转得这么快,甚至有失控的风险。

  “我们一开始还没有意识到这件事情这么紧迫。”王渝伟说,直到上门来咨询的公司创始人越来越多。他感到,这一次的人工智能浪潮正在发生与过去截然不同的变化。

  今年年初,一家最早接入大模型的文生图公司找到王渝伟,这家公司希望把自己的业务引入中国,因此,他们想了解这方面的数据合规业务。紧接着,王渝伟发现,这类的咨询越来越多,更明显的变化是,前来咨询的不再是公司的法务,而是创始人。“生成式 AI 的出现,原有的监管逻辑已经很难适用。”王渝伟说。

  从事大数据法律工作多年的王渝伟发现,生成式 AI 与上一波 AI 浪潮正在呈现更加底层的变化。例如,上一次的 AI 更多是基于算法进行推荐,还有就是一些人脸识别,都是针对一个场景,针对一些小模型,在具体应用场景当中进行训练,涉及的法律问题不外乎知识产权、隐私保护的问题。而在这个生成式 AI 生态之上的不同角色,例如提供底层大模型的公司,在大模型之上接入做应用的公司,存储数据的云厂商等,对应的监管都不尽相同。

  目前大模型所带来的伴生风险已经有了共识,业界明白,商业化应用势必会放大这种风险,要想保持业务的连续性,就需要重视监管。

  难点就是,“如何找到一条既能做好监管,又能不影响行业发展的路径。”王渝伟说。

  结语

  对于整个行业来说,在对技术加深探讨的同时,也正在引发更为深远的思考。

  在 AI 逐渐占据科技产业的主导地位之时,要如何确保技术的公正、公平和透明性?当头部公司紧紧掌控技术和资金流向时,如何确保中小企业和初创公司不被边缘化?大模型的开发和应用蕴含巨大潜力,但盲目跟风是否会导致我们忽视其他创新技术?

  “从短期来看 AI 大模型正在被严重高估。但从长期看,AI 大模型被严重低估了。”

  半年时间里,AI 热浪翻涌。然而对于中国的创业公司和科技巨头来说,在热炒的市场氛围中,如何保持清醒的判断,做出长远的规划和投资,将是检验其真正实力和远见的关键。

  (包校千对本文亦有贡献)

来自: 虎嗅APP

蓝易云是一家专注于香港及国内数据中心服务的提供商,提供高质量的服务器租用和云计算服务、包括免备案香港服务器、香港CN2、美国服务器、海外高防服务器、国内高防服务器、香港VPS等。致力于为用户提供稳定,快速的网络连接和优质的客户体验。
最后修改:2023 年 08 月 04 日
如果觉得我的文章对你有用,请随意赞赏