要点:
中国的众多云厂商中,只有华为云,坚定地选择了难度最高的AI for Industry要将大模型率先应用于工业领域。所有B端企业都意识到,这一次,真的是狼来了。
卫诗婕| 商业漫谈Jane's Talk | 播客Podcast | 国语| 2024年12月26号
「这一次,狼真的来了。」张宇昕对我说
1999年加入华为的张宇昕,至今担任华为云CTO已有七年头。从一名基层软体开发工程师做起,先后经历了互联网和行动互联网浪潮(过程中创立了欧拉部),而这一次,他确定,生成式AI 的技术浪潮,真的与以往不同。
「这一波人工智慧让大家看到了泛化与通用——通用就是大家都能用。」
「AI 从一个局部真理,走向了人人都信。」
「人工智慧浪潮来临后,没有一个企业说我不用人工智慧。」
不过,冰冷的现实是,人们对于技术的畅想无限,而落地时却进展缓慢——这是大模型浪潮迄今经历的,从热情高昂,到冷静务实的600多天。
昂贵、使用门槛高、技术仍有局限,是大模型难以进入现象级应用的真相。
因此,放眼中外,云厂商成为大模型剧目中的绝对主角。他们既是辅导员──帮助一群企业率先用上大模型,过程中也售卖出自己的算力、基础设施和服务;同时也是攒局者──凭借对产业上下游的连接,先实现技术最大面积地应用,并充分观察、统筹、整合,再让产品反向牵引技术进步。
而中国的众多云厂商中,只有华为云,坚定地选择了难度最大的「AI for industry」 ——要将大模型率先应用于工业领域。
如果将华为视为一扇窗口,便能窥视千行百业在这次新科技浪潮下的众生相——
产业里的热情和焦虑都是空前的。在此情绪之下,一批巨无霸工业龙头,已经率先踏上大模型应用的牌桌,因为只有它们——拥有足够的财力和数据积累,有资格当「第一批吃螃蟹的人」。
一周前,我在海南,创原会技术高峰会的现场,目睹了这些令人称奇的先进案例:在生产精煤、炼钢、水泥制造、医药开发与研制、疾病预测等等重要的场景里,贴着行业训出的大模型,能极大地提升这些场景的计算效率——在原本高危、高成本、高精度的作业里,大模型能够加速计算。举一个通俗例子,过去,做一次气象预报需要几千台高档的伺服器,并运算上半天。现在,只要用一张卡,10秒钟就能出结果。
看起来,第一批吃螃蟹的企业也已经尝到了甜头:透过加速计算,行业能够极大地缩短生产周期(原本需要研发十年的药物可能缩短到月、甚至天)、减少生产过程中的冗余(炼错一炉钢可能产生几十吨的废料),从而达到惊人的效益提升——在山东,仅一个矿井,在大模型的加持下,在大尺寸的煤炭加持下,在大产量的高产量。
那天,我身边的与会人士西装革履,他们大多来自传统产业——但会颠覆你认为它「传统」的刻板印象。因为,在生成式AI的浪潮下,居然是中国工业界,现象级地、率先涌现出一批大模型应用的小闭环。
我在创原会现场,专访了华为云的CTO张宇昕先生。我们谈到了新的人工智慧浪潮下,中国产业里的集体性焦虑及其对策,以及华为对AI Native的思考。
企业用上、用好大模型的正确姿势是什么?这项技术在哪些产业已经率先落地,具体如何应用?华为所倡导的大模型to B路线,如何理解?
有关这些关键问题,以及大量华为的内在视角,都蕴藏在这次高密度的访谈中。
以下是访谈整理,经编辑后发布:
01. 要充分发挥制造业优势:「中国是AI 最好的黑土地」
Q :如果姑且把ChatGPT诞生作为这一波大模型浪潮的源头,这两三年间,华为云内部是如何反应的?有哪些关键的决策和判断?张宇昕:华为对于人工智慧机会的捕捉,其实比ChatGPT还要早。
张宇昕:早在2018年华为的全联接大会上就发布了相关策略,当时我们认为,人工智慧未来会成为一个通用技术;到了2021年,在华为开发者大会上,余总(余承东)发布了我们的盘古大模型;2023年,我们把盘古版模型升级到了3.05版,基本升级到了GPT版,基本升级到了GPT05版。
但是我们所走的路可能跟美国大模型的路不完全相同,跟国内业界也不完全相同。我们的定位是「AI for industry(工业AI) 」。
Q:「AI for industry」的策略,是基于华为的基因吗?
张宇昕:是的,但也是结合我们中国产业的特色──全球666个工业产业里,我们国家有220多个是全球领先。我们的产业门类也最齐全。这意味着,我们国家在这些产业的技术经验、工程能力都是领先的,如果把这些技术经验、工程能力用数据沉淀下来,就是人工智慧最好的数据集。这是人工智慧大有可为的地方。
所以,中国要在人工智慧上建立优势,一定要充分发挥中国制造业领先的优势。
Q :我也留意到一句很有趣的话,中国是AI发展的黑土地。您认同吗?
张宇昕:我认同,这是我们的结构、产业特征所决定的。
02. 与以往不同的科技浪潮:「这一次,狼真的来了」
Q :华为云连接着千行百业。如果把你们视为一扇窗口,中国企业拥抱新科技浪潮时,呈现出什么样的心态和姿态?
张宇昕:不同的客户可能有不同的特点,大体分为两类:
一类客户对于新技术变革的意愿度不是太高,因为他们有大量传统的业务和模式,传统的软硬体的包袱,很难改变,他们偏向一种平缓的、渐进式的变革;
但是很多创新的企业,他们对新技术很敏感,认为这些技术一定会带来新机会、以及价值分配的变化,所以他们会有某种紧迫感和渴望,甚至有些焦虑。
不过技术肯定有门槛,对于许多企业而言,他们获取、掌握、运用这些技术,存在诸多的困难;他们希望用一些快捷、低门槛、但能够支撑自己业务的方式来快速进入大模型的应用。华为有着长期、大量的技术研发投入,能够很好地支持他们(去做这件事)。
Q :就是在华为这片很深的技术土壤中,长出一些大模型的基建和一系列工具,企业直接拿来用。
张宇昕:对,我们把基础的能力建构好,也把客户业务所需的这些能力,建构成服务。所以我们提出:「一切皆服务」,包括技术设施——技术资料库、大数据、安全性等,把这些做成云端服务。
客户就在这些能力上,搭自己的业务系统。
Q :刚才您介绍了两大类客户的画像,这两类客户,哪一类比比较大?
张宇昕:现在来看,起码五五开,甚至拥抱新科技的还超过一半以上。
Q :大模型这波科技浪潮跟过往的科技浪潮有什么不一样?
张宇昕:大家更觉得这波浪潮是难以抵挡的,是所有企业必须采纳的。
中国云化的节奏是比美国的节奏至少晚5年——很多企业还觉得自己不用上云,或者不一定要拥抱公有云,但是美国绝大部分的企业、政府机构都已经拥抱公有云了。但是人工智慧浪潮来临后,没有一家企业说我不用人工智慧。大家都觉得我必须拥抱这波浪潮,如果我不拥抱它,我就会被这波浪潮打翻。
Q :为什么呢?
张宇昕:这一波人工智慧让大家看到了一个泛化、或者说是通用技术的一个前景。换言之就是广泛应用——通用就是大家都能用、各行各业都能用。要知道过去这么多年,人工智慧还在一个小众范围。
此外,大家看到新科技带来了许多颠覆商业模式、创新体验的可能性,这些企业客户是很担心的──要嘛我做,我去改变自己,要嘛就可能被新的(对手)颠覆掉。
Q :人工智慧这个词出现已经70年了,过程当中也有过一些热点高潮,比如Alphago 下棋、人脸识别,但都是昙花一现,热情一下子脉冲到很高,然后又回落了,大模型一定不会是昙花一现吗?
张宇昕:过去70年,人工智慧的科学理论虽然有很多的进步,但这些科学理论始终难以落地到实际的产业当中,都是在一些局部的环境、场景里应用,过去的人脸识别或是图形识别,都只是影响很少一些客户、或者很小一些场景。
而这次ChatGPT解决了大家一个共识问题──就是大家终于意识到,透过海量AI算力的计算,用无监督、自动化的训练方法,完全可以实现人工智慧的通用化。 ChatGPT给大家最大的震撼在于这里,以前大家觉得人工智慧是局部真理,但一旦它是一个通用的技术,那么所有的人都与此相关了。
Q :通用这个词可以用一个通俗比喻,我们常说训大模型就像训一个大学生,比如华为有那么多的就业岗位,很多也是从校招生培养起来的。那如果可以培养一个人,其实也可以培养一个智能体。
张宇昕:是的,完全可以。
Q :既然这波科技浪潮与以往不同,产业上下游的企业最直观的反应是什么?
张宇昕:B端的所有企业都意识到,这次真的是狼来了。
这个新技术将会深刻地改变B端的企业,这也是他们又兴奋又焦虑的重要原因。客户的积极性是空前的,几乎我们谈到的所有客户都想拥抱人工智慧,只是他们不知道该从哪里下手,该如何应用。尽管他们不知道,但这种愿望是很强烈。
Q :这当中有没有什么泡泡、幻想、误解是要戳破的?
张宇昕:当然会有。大家对新技术的期望很高。但首先,人工智慧不是无所不能,毕竟人工智慧沉淀的是我们人的知识、经验和技能,人不会的,不能指望大模型它会;人所不具备的知识和经验它一样不具备。
现在的大模型解题也就是大学生的水平,我们输入哥德巴赫猜想给他还是解不出来的,因为人没解决这问题。 Sora虽然能够生成视频,大家觉得很新奇,但是你拿它和李安比,肯定还差太远。它并不具备思想、美学的观点、光、流体动力学,这些它都不懂,我们说可控性比较差,离真实也比较远,还有幻觉问题等等,这是人工智慧当前的限制。
但如果等人工智慧已经特别成熟了,已经到了100%可以产业化的阶段,你再去用,你就已经落后于这个时代。
Q :先下场练习很重要。
张宇昕:拥抱AI,与科技共同成长。因为技术的成熟是要靠产业的实践不断去推动它。新技术一定会带来新应用,反过来新应用又会提供技术要求,提供它场景、练兵场,两者是像DNA一样螺旋型、循环成长的过程。
03. 大模型是云的Game Changer:过去是水电煤气,「今天,云端的服务层更厚实了」
Q :回顾整个大模型浪潮,我们会发现不管是中国还是美国,云厂商都在其中扮演最关键的角色,这其中的深层逻辑是什么?
张宇昕:人工智慧有三大要素,第一是要消耗大量的算力,第二,人工智慧的原料是大量的数据。第三,人工智慧还需要许多客户的应用场景、用演算法把业务融入,才能让客户使用成功。
那么,在哪一个平台能把这些要素聚集在一起呢?想来想去只有云厂商——云上有规模的算力,云上汇聚了海量的数据,透过云的生态,我们连接着产业上下游所有的伙伴,所以,云是最好的人工智慧的黑土地。
Q :过去外行人看云,会很粗略地认为云就是卖算力、卖存储,大模型来临后,云厂商是否有额外的价值会凸显?
张宇昕:在云端的最早期,我们的确是卖算力、卖计算、卖存储,帮助客户搭建基础设施,这是云的最初级的价值;我们提供的第二层价值是技术即服务——软体开发的技术,数据库、大数据的技术,包括安全的技术,人工智能来临后,技术即服务这一层就会做的更加厚实了。
例如我们过去的资料库和大数据,其实并不理解数据本身的价值,以及数据里的意义是什么?这些价值和意义原本藏在企业的各类专家脑海里——比如一个财务报表,给我这个不懂财务的人看,可能就是个阿拉伯数字而已;但是财务专家一看,就知道数据背后的含义,因为我脑海里没有这些知识,但是财务专家有——我们现在做的人工智能,就是帮助企业进一步把这些知识数字化,他们数仓、大数据集,
所谓模型表达,就是让这些数据里的经验、知识、以及彼此之间的关系,透过模型和软体,让这些数据进一步发挥价值。过去,我们用人来做各种数据分析、洞察、决策的支撑,现在就可以用机器来辅助,辅助成本要低一些,效率要高,可能精度也要更高。
Q :你们呼吁企业,基于模型来改造自己的应用和软体,把原本行业里各种专家含金量最高的经验喂给人工智慧?
张宇昕:对,回到最开始的比喻,通用大模型已经被训练成一个大学生程度。如果我们能够把产业知识注入到大模型里去,就等于把一台电脑变成了一个产业专家。
人类大学生进入一个企业,也是要靠老师傅带,才能逐渐培养成一个专家;现在我们把老师傅的这些经验和知识,数据化后,喂给大模型,过去一个专家可能理解50个维度的经验,不同的专家有不同维度的经验,一个人无法同时掌握这么多(知识),但是机器可以。于是机器就可以帮助大家提升效率。这就是人工智慧的价值。
所以,云端过去是提供基础设施和技术,现在还能帮企业把经验传承,把宝藏数据的价值发挥,这意味着云端本身的价值也在提升。
Q :所以我之前看过一句话:过去云厂商提供的价值就像水电煤气,你不能缺少它,但是似乎也不会为它付出太高的交易价格。今天的云端厂商能做的事情就可能更丰富了,它的价值也更大了。
张宇昕:对。它变成一种类似你业务的一种咨询顾问,提供一些更有价值的决策的判断,这就跟过去的云端发挥的价值层次就不一样。
04. 过去一年,云端的竞争:「我们派了几百个科学家深入田间地头」
Q :大模型的淘金热,卖铲子的人最开心。过去一年,云端产业经历了什么样的竞争?
张宇昕:如你所说,整个云端产业里有两个层面的竞争,一个是就是卖铲子,就是算力;第二个层面就是大模型本身。
我讲了,美国、包括中国的互联网厂商,他们主要做的是以toC服务为主的业务类型,所以还是倾向于往通用大模型里放更多的通识,如此一来,大模型更大,所包含的通识更多、更广,这是一条路子。所以我们看见了国内外很多云厂商都提供了类似ChatGPT这类对话的能力,大家呼叫API即可。
但华为服务to B,对许多企业客户来说,你提供我一个对话机器人又如何呢?当然可以帮助解决一些客服、内部交流等问题,但企业客户,更关注人工智慧是否能在生产系统上发挥价值。所以我们希望让每个企业都拥有自己的大模型,让每个开发者都有自己的人工智慧助手,说穿了就是结合产业应用、产业知识来做产业的大模型。
我相信,慢慢地,toC和toB这两条路径会分叉。
Q : 业内很多人还是会认为,算力是华为云的最大的优势,据我所知一些友商也买华为的晶片,因为他们的政企客户需要国产替代。您认可算力是华为云目前最大的优势吗?
张宇昕:算力肯定是我们的优势之一。如您所说,算力不只我们自己有,也卖给友商和产业。因此绝不是独特优势。如果说华为云端有什么独特优势,也许是我们能实现软硬体协同——软体的服务能够驱动华为晶片和硬体的定义,我们能结合客户业务场景的需求,来设计整个系统,由此能发挥整系统的优势。
Q :矽谷那边,对Scaling law的追求有放缓,但与此同时一些世界大厂仍在算力豪赌这条路上狂奔着。再反观国内,2024年相比2023年是更理性冷静的。但前阵子袁进辉老师提出一个观点:如果说大模型的训练成本是一池游泳池的水,那么推理成本可能是一片汪洋大海,是无止尽的。您有观察到中美两边对于算力需求的变化吗?如果说推理成本无限,是否代表算力这门生意也是无限的?
张宇昕:我们早就判断,世界上能持续做大模型训练的,夸张一点说,中美各五家就差不多了,确实没必要每个厂商都从头去做,因为模型的训练是一个很高的投入,很苦的差事,而绝大部分的客户用大模型,其实主要就是推理,所以推理远的市场空间确实是大于训练的市场空间。
第二个就是成本的问题,我的观点是Scaling law还会持续的发展,为什么?因为目前的人工智慧技术,单位计算成本仍然太高,效率还是太低。以人脑为例,首先现在AI 还没达到我们人脑的算力程度。其次,人最多消耗一点吃的、穿的,但是要堆起一个跟人的思考能力相同的算力系统,还要多少钱?
如果人工智慧真的要取代人的一些基础工作,它必须把成本降到和人相当、甚至更低,才符合经济法则。就像您手上拿的笔记型电脑,如果还是大型主机的阶段,我们绝对都拥有不了。
要做到这样的成本水平,意味着算力规模还要继续扩大。所以长期来看,我觉得未来5年、10年,可能还有几十倍、数百倍的需求成长。
而我们之所以看到现在市场的理性,是因为现有成本结构下,一味地扩大算力意味着高代价,这不是所有厂商都负担得起的。所以,必须设定一些低门槛、高效率、低成本的方案,让第一批愿意吃螃蟹的客户,能及早地应用这些技术,及早地产生效益。更重要的是,应用之后,它就会给技术回馈,来推动技术进步。
Q :这种正向回馈发生了吗?
张宇昕:时时刻刻都在(发生)。
我们这几年做了30多个行业,上千个客户,每一个客户在建立大模型的过程中都会提出很多新的要求,都是当前大模型的能力还没有具备的;
所以我们这几年派了几百个科学家、博士专家深入田间地头、工厂车间,生产一线——不是说做好了一个东西拿给人家用,人家马上就能用的;还是要到客户的业务系统里去、到现场,看见新的问题,提出新的挑战,再回过头来攻克这些技术。
这个过程也是人工智慧技术发展的过程。
05. 大模型的实用性问题:「精准度好的『小模型』,可能是企业的未来」
Q :你刚才讲到大模型的成本还不够低。周鸿祎在前不久的演讲中讲了一句话,他说希望「把大模型拉下神坛」,先用一个模型解决一个具体的问题,他觉得这是最重要的。您该挺认同的吧?
张宇昕:我非常认同。我认为他这个观点表达了两个意义。
第一,大模型高,但不能贵,华为过去也常讲这句话,叫做「高而不贵」。因为如果一个技术又高又贵,那只能飘在天上,落不了地;大家都能用得起来,这是叫「高而不贵」。
第二是,在大模型的早期,如果能够聚焦解决生产系统当中的某一个问题或某一类问题,把成本降下来、自动化水准提上去,也是个好事。
Q :提一个有点尖锐的问题,华为也自研了盘古大模型,但跟其他厂商比起来,它不太参与刷榜,为什么?
张宇昕:刚才讲过,华为是走大模型to B路线最坚定的实践者之一。基于这个选择,我们没有必要跟着人家去刷榜,因为现在绝大部分的刷榜是基于NLP通用的评测榜,这类通用能力无法解决企业的问题。
不如沉下心来,踏实地帮助客户去建立他们的人工智慧系统——让客户拿着自己的行业know-how在我们的(大模型)底座上去做增量训练,做微调,训出自己的大模型。
所以我们是一个使能者,是个黑土地,我们不是黑土地上最后长出来的那棵树或那朵花。树和花是客户的;但对于网路而言,他们本身就是树,就是花;各自定位不一样,所以有些指标没有必要去比。例如对科技大模型而言,可能需要考虑产业数据和通用数据的配比,才能使得整体效果最优,一味追求某个指标可能是种浪费。
Q :这里就有个细节问题,关于您讲的配比问题,据我所知,训大模型时会有一组矛盾——模型的泛化能力和专业性能力是相牵制甚至相悖的。
张宇昕:是的,专业资料训得越多,泛化性就会受影响;如果追求泛化性很好,那专业能力一定就会比较差,这是目前的难题。
Q :这个问题现在有解吗?
张宇昕:技术还需不断攻克。
或许未来模型的架构还会发生变化,又或是训练资料的处理方法会变;当然也许未来算力大了,这个问题就不成问题了— —就像小学生一样,一次教多了他消化不了,教了A,忘了B。但如果对方是大学生,你会发现一次教他3 件事,他是记得住的。这就是当下的人工智慧技术还不成熟。
如果未来有更新的技术,更强的算力,也许这种泛化性和专业性的矛盾就不会这么尖锐。
Q :今天我看到你们台上演讲的一些客户案例,都是巨无霸企业,体量挺大的,我有些怀疑你们所说的,「希望把模型价格打下来,让企业都能用得起」。现在一般企业能用得起你们的模型和服务吗?
张宇昕:为什么现在只有大企业在玩人工智慧?
因为人工智慧三要素里面,第一是算力,第二是演算法,这两点华为也许能帮客户解决──没有算力我们可以帮客户去建,演算法不行我们也有足够的专家;但第三点,数据,只有大企业拥有足够的数据。业界的小企业们,他们也很想赶紧拥抱人工智慧,但是他们手上所掌握的数据(知识和经验)太少。
所以,我们提出了大模型的层次结构:
第一层L0叫通识大模型,通用大模型是底座,其实不是客户最终使用的。
第二层L1的产业大模型要靠产业的领头羊,这些企业掌握的数据够多,能把产业的通用能力也做成大模型,不仅仅自己能用,也开放出来给中小企业用,这就降低了中小客户的门槛;
第三层L2指的是特定场景的大模型,这就进一步降低了使用门槛了。
同时我们也号召业界来共建这种开放资料集。因为一类型的企业,你有一些(数据),我有一些(数据),只要这些数据不涉及企业的隐私或保密数据,这些脱敏的通用数据都可以拿出来,在行业里建立、共享一个行业通用数据集。他人的数据和经验,可能刚好能补我之不足,这个过程也充分体现了竟合的精神。
Q:上午还有一个观察,我发现拿出来讲的模型从参数量级来看,并不算大,例如一个药物分子大模型,是亿级参数。今天我们很少在公共叙事中看到亿级参数的模型。小模型的价值有多大?模型越做越小、把小参数模型做好,会是趋势吗?
张宇昕:你说的「小模型」,「小」应该指的是参数量级,我把它理解为小的大模型——在通用资料训练的基础上,再叠加专用资料。
为什么会有小的大模型?业界很多客户容易被误导了。其实参数量大的主要是自然语言(NLP)的模型,现在NLP模型起始都是千亿、甚至兆。但是如果是视觉模型,几十亿(参数)可能也够。推理决策的模型,几十亿、几亿都够;像药物分子大模型,它不需要(参数)这么大。
对一个企业而言,第一,它首先要求大模型要有专业能力,第二,一个企业要选择多种模态──不只语言,也要视觉,也要决策推理,也要优化。像是分子药物大模型和我们做的气像大模型,都叫做科学计算大模型──过去我们用解方程式的方式算出来,现在用学习的方式加速计算。
例如过去做一次气象预报,需要3000台到5000台高档的伺服器算半天才能算一次,现在,我们用一张卡,10秒钟就能出来。过去研发一个药物要10年,现在一个药物筛选,可以由月的时间缩短到天,甚至缩短到小时。这些案例,都是用人工智慧的方式在加速运算。所以,小的大模型也有价值。
第三,企业也要选择尺寸──因为同等能力的大模型,尺寸越小,成本越低,这就需要我们有技术了,比如做量化抽取,能否尽量降低它的算力成本,使得精度在下降不多的情况下,更经济地使用。
以上这些,都是企业要综合考虑的问题。未来,小参数、但是精准度非常好的大模型,可能是未来企业不断追求的。
06. 产业里的高价值AI 场景:「一个矿井,我们一年帮他多生产2000 吨煤」
Q:你们跟那么多客户贴身合作,发现哪些高价值的AI场景?
张宇昕:例如煤矿是一个高风险的场景,过去靠人值守,现在可以透过摄影机和CV(视觉大模型)来判断挖煤的工况,甚至还可以透过声音来判断,地底下是煤还是水?还是岩石?过去都是老师傅站在那听,老师听得不对,(喊)「不能挖了!」,因为再挖可能挖透了或者怎么的。现在这些场景都可以用人工智慧方式去判断。
还有一个场景是传送带分拣,过去主要靠人分辨煤渣、石头和煤块,效率又低、成本又高。现在分类的效率会大大提升。
还有生产精煤,精煤是需要各种配比,过去的配比是按一个比例生产出来后,再去检验成分,如果达不到期望就再回去重新配,需要反复试验——但现在我们把多种数据综合起来,模型分析就会给出最佳参数,就省去了反复试验。在山东,就一个矿井,我们一年帮他多生产2000吨煤。如果推广到全国,可想而知能够提产多少。
同样原理的还有炼钢,钢要炼得品质好,温度、原料、各种微量元素的配比,都需要很精确。过去是靠炼钢师傅的经验,去做各种试验──一炉钢几十吨就去了。现在人工智慧就不需要那么长时间去反覆跑试验,炼出的精确度品质比原来好很多。就算一吨钢降低一块钱的成本,当然我们初步测算的效果可能不只一块钱,可以看我们国家一年要生产多少亿吨钢。其中的降本将会是个惊人的数字。
Q:我相信你们一定从产业里挖掘了非常多的场景和需求,但也不可能一上来就所有都做,一定有一个优先排列的过程,选择做什么、不做什么,先做什么、后做什么。在华为内部,这个过程是怎么样的?
张宇昕:首先第一步,还是必须深入客户第一线。以煤炭为例,有三个场景,假设人力有限,只能做一个场景,那我必须知道,哪一个场景条件最成熟、产生的价值最大、客户最著急。这需要基于客户自己的经验以及我们的经验,结合起来才能判断。
收集到这些需求后,我们每一层专家和主管都在碰撞,如何用手上有限的人,把这些需求里共性的东西抽取出来?这需要先理解业务、辨识需求,在需求中抽取共通性──我们讲去粗存精、去伪存真,由表即里,由此即彼。这样的话,也许客户没有提出的问题,也有机会解决。这也是技术团队最大的价值。
做出技术和产品后,我们要再把它带回客户现场去验证。是一个不断持续迭代的过程。
Q :收集并确定第一批次的需求,这个周期经历了多久?
张宇昕:比较快速。实际上对于大颗粒度的需求有年度的规划,中间会有迭代,以季度或月为单位的需求可以识别和纳入进去;对于紧急需求也会有紧急决策的流程。云还是比较灵活。
Q :大模型浪潮来临后,华为云端用多久定义了自己的新目标?
张宇昕:不太好说,其实这几年我们还在不断地学习,也在不断地调整目标,有些调整是觉得方向偏了,有些是目标低了。或是目标的优先顺序要排一排。
Q :方向偏了和目标低了,可以举个例子吗?
张宇昕:例如到现在为止,公司里还有人问我,为什么我们不提供大模型的API ?
但在我看来,大模型的API其实是个类别toC的业务。我们绝大部分的政企客户,你提供给他们一个大模型的API,对于企业的生产应用,帮助并不大。 API主要是类似ChatGPT这样的对话机器人,企业希望它回答的问题,背后用到的知识可能是机密的,可能涉及隐私,不能开放的;
所以,如果说我们也去提供公开的API,优先权到底高不高?这个公司内部就有争论。那透过一段时间的思考,我们还是觉得不要走这条路,走AI for industry,这就是修正方向。
Q :那哪些目标定低了呢?
张宇昕:那当然还是大家最关心的性价比。
我们每一回都觉得对性价比的追求还不够,还要再去挖可靠性;尽管我们的大模型的训练集群稳定度已经在业界算是比较好的了。但我们还是希望中断时间能否再短一点,客户恢复(维持)的时间能否再长一点,每回都是还要加码,还要再提升。
07. AI Native、中国道路与产业协同「优势挡不住趋势」
Q :三、四年前我们还在提「云端原生」,今天所有人都在提「 AI 原生」,华为云怎么理解AI native?去年李彦宏在提到AI native的时候,讲到他要内部抛弃所有旧有的认知,完全解构了之后重新做,他说大厂在这件事情上肯定会反应慢。您认不认同他的看法?
张宇昕:透过我们这几年的一些合作和实践,我把AI Native总结成四个方面,不一定全,但是能概括我们现在看到的比较主要的四个实践路径:
第一,如果要做人工智慧,一定要选择AI Native的算力,也就是新型的算力──一定要能支援大算力、大频宽、低时延,能支援大模型训练和推理中,大量的资料同步,传统算力搞不定。
第二,因为客户要建构智慧化的应用,所以它的业务系统必须要构筑在一个已经智慧化的底座之上。过去的底座包括传统的资料库、数仓、大数据安全、软体开发等等这些技术,都需要升级。底座不智能,也就无法支撑业务的智能化。这是云端服务的智能化。
第三,很关键的一点是要建立一个产业或企业的大模型,这就是人工智慧的核心。一个企业能不能人工智慧化,核心就在于它能不能把这些知识经验做到大模型里去。
第四,如果我们既用了算力,也用了智能化的底座服务,也构建了自己的大模型,毫无疑问,那整个应用系统就要改造,我们叫大模型系统。
这四个面向是企业必须要做的事情。如果这四个面向做得比较好,我们觉得这可能就是走向AI Native之路。那么,第二个问题就不言自明了:技术的每一层都变化了,所以李彦宏说要重构,是很自然的。
Q:那华为有没有经历过这种结构又重构?
张宇昕:这两年,我们华为云端已经把自己的基础建设全部重构了。我们叫「 reshape the cloud service(重塑云端服务)」。我们所有的云端服务都用人工智慧加持了。有的是增加了智慧助手,有的是为大模型做了很多功能,例如安全态势、漏洞攻击的感知,例如资料库的管理、运维,当然升级的过程没有完成,这是一个长期不断迭代的过程。
所以这个重构已经开始了。
Q :解构和重构这件事,对华为来说有包袱吗?
张宇昕:包袱一定是有。
过去这么多年累积的程式码,谁都不想说这些程式码要改,甚至于有些程式码要抛弃掉。但是我们华为有一句话,叫「优势挡不住趋势」。如果你不想变革,你可能就被这场变革颠覆掉。与其被这场变革颠覆掉,不如及早拥抱他,你也成为这场改革红利的享受者。
Q :就在我们谈话的今天,业界发生了一件大事, ChatGPT之父离开了OpenAI,我们看到美国(AI 业界)现在人才流动非常的剧烈。在中美AI的竞争路上,您有什么主张和判断吗?
张宇昕:我有几个想法。
第一是,中国的人工智慧发展道路一定要走中国特色,结合我们自己的产业特色去走。我们如果走美国的道路,不一定能成功,例如以语言大模型为例,我个人认为,英语语言的大模型我们无论如何都很难超过西方世界的。因为英语是西方世界的主流语言。工业革命以来,人类最主要的公开的文化、论文、知识,基本上都是英文的。这条路,现实来讲我们可能赶不上。
第二点是,美国现在在打压我们的人工智慧,技术上打压,未来可能在人才上也打压。中国学生再想去美国学电脑、人工智慧相关专业都很困难。这就更加要求我们中国的产业界要协同起来。在人工智慧这件事上,更多的是协作,而不是竞争,只有发挥各自的优势、协同起来,才能把整个产业带起来,才能跟美国进行这种全栈的竞争。
第三,产业界和学界也要协同。比较好的事情是人工智慧的学术研究,除了美国就是中国,世界上找不到其他地方了。所以中国的产业一定要给学术界提问题,给他们这个场景,给他们这种理论发展的空间和机会。当学术界研究出了新技术,要快速地到产业来进行验证。
如果能把这样一个循环做起来,那我们的人工智慧产业,就谁也不怕了。