昨天一个国企的朋友看了我昨天的文章,打电话和我讨论AI赋能数据中台的事情。他们最近也在研究Palantir,在探究其成功背后的秘诀,不过网上的资料都是只言片语,看上去讲得头头是道,但是仔细看后与自己的业务一结合,好像头绪纷乱,不知从哪里入手。昨天看到我提到的语义化知识图谱,似乎与Palantir的本体论有些联系,于是就此展开讨论。
其实本体论的基本原理并不复杂,就是需要梳理出实体以及实体之间的关系,直接关系用图节点之间的关系表示出来,隐性关系则可以通过语义让大模型通过推理来构建。语义化知识图谱与传统知识图谱之间的比较大的区别就是存在语义网络与关系网络的双层网络。
谈到构建语义化知识图谱,一下子就头痛起来了,可以看出来,这是一个工程量极大的工作。如果已经存在某个行业或者业务的模板,工作量相对可控,如果是从一张白纸开始,确实令人头痛。
我建议先从一个比较小的点入手,先试试可行性。然后再从另外一个点开展,先构建一系列离散的业务点,等这些点的密度已经足够高了,那么就自然而然地连成片,铺成面了。这似乎是比较容易工程落地的方式,不过另外一个问题又出来了。恐怕领导不会同意,领导总是站在更高层面上看问题,如果只是在一个较小的范围内做这件事,领导是无法满意的。从实施落地的角度看,肯定是铺的越开,难度越大,最后失败的概率也越大,而如果能扎扎实实地从底层一点点干,就可以慢慢积累,三五年时间可以初见成效。但是领导希望看到的是广泛的效果,短期的效果,一两年之内看不到效果,可能这波热度就没了。如果总是在投入,但是见效很慢,领导的领导肯定也无法满意。
这其实是一些大型企业的通病,我以前也经历过很多这样的项目。某个项目,从资金投入上看,只能做好一个小范围工作的事情,领导就要求在十倍的范围内做出成效。于是最终做出的东西只能让领导在他的领导那里说的过去,而无法让基层用户满意。
以前的信息化中,这些钱投下去,还是会见到点效果的,虽然对基层做业务帮助不够大,甚至可能束缚了基层的能力,但是在管理上获得更多的数据,有了更多的抓手,钱也不能算是白花了。在智能化时代,如果还用这种方法来做事,恐怕就更麻烦了。智能化的前提是数字化,没有数字化的智能化只是空中楼阁。绝大多数企业在做智能化应用之前,还需要先补补数字化的课,如果你送给AI的数据都是错误的,数据之间的逻辑都是错误的,那么你是不要指望AI能够给你正确的答案的。
去年Deepseek横空出世的时候,曾经掀起了一波AI大潮,很多企业都开始建设AI基础设施,开始训练私有化的垂域大模型。不过这场新时代的大炼钢铁之后,留下的是一地鸡毛。很幸运的是当年斥巨资购买的算力平台是越来越值钱了,但是训练出的一堆“垃圾”确实成了难题。说不能用吧,确实还有点用,因为所谓的垂域大模型大多数是在开源模型基础上,利用了企业的业务数据做了微调,在专业领域的问答上,还是比开源或者公共模型有进步的,但是其效果可能不一定比开源大模型外挂知识库强多少。
更重要的一点是,AI应用对AI大模型的需求,不见得是模型内部的专业知识的丰富程度,做数据分析,可能需要强大的数学推理能力,做编程,需要强大的编程能力。企业自己微调或者训练出来的模型,这些方面可能都变得更弱智了。再加上新推出的开源模型往往性能远好于企业原来微调所使用的基础开源模型,这样企业自己发布的大模型就越来越鸡肋了。
更大的问题是,你训练出来的模型,必须让企业的其他部门使用,否则企业都号称推出了自己的模型,应用里却去用外面的开源模型,这不是打脸吗?我最近在好几个大企业里都遇到了类似的问题,因为他们自己已经发布了大模型,所以哪怕我想用开源的QWEN3:32B这样的中等规模模型都不行,哪怕用这个32b的模型的效果远远好于他们的671b的垂域模型。
其实这些问题普遍存在,并不是一家两家企业的事情。上面的领导想一招之敌,一劳永逸地解决问题,于是总觉花一大笔钱,搞出一个比开源模型更强大的企业级垂域大模型,就可以让企业的AI应用上一个台阶了。但是AI应用的事实并非如此。这也是为什么在一些大企业里,基层的AI应用做得风生水起,而企业级的AI应用好像总是举步维艰的一个主要原因吧。
