比特派bitpie官网下载|王小川发布搜索增强的Baichuan2接口产品,称 AI 大模型不再是工具而是“新物种” - AI新智界

作者: 比特派bitpie官网下 分类: 比特派最新 发布时间: 2023-12-20 22:28

原文来源:钛媒体

图片来源:由无界 AI生成

随着新一轮 AI 大模型浪潮席卷一年多之后,王小川团队加速推进大模型成果,以完成百川智能的生态布局。

12月19日下午,王小川创立的 AI 大模型公司百川智能,在北京发布基于搜索增强的Baichuan2-Turbo系列API(应用程序编程接口),包含Baichuan2-Turbo-192K 及Baichuan2-Turbo产品,即日起产品可开放使用,从而逐步构建百川智能完整的大模型技术栈。

百川智能创始人、CEO王小川表示,大模型+搜索构成了完整的技术栈。搜索增强是大模型发展的必由之路,解决了搜索+长窗口结合产生的技术挑战。他指出,将动态知识引入模型中,在垂直领域,尤其是领域知识不易公开获取的场景,模型本身的领域知识严重不足,而借助搜索增强,则可以实现大模型和领域知识、全网知识的全新链接。利用大模型+搜索增强方案可解决99%企业知识库的定制化需求。

王小川对钛媒体App表示,现在的 AI 大模型不是在创造工具,而是创造更像人一样的“新物种”。

“在互联网时代,火车、计算机、电脑、AI 更多是工具,都要求精确的方式进行互动,提高人类效率。但今天,其实我们造的是‘新物种’,‘造’的是一种人类伙伴,它就不需要像工具一样那么精确。所以在 AI 大模型时代下,我们对它的定义和思考方法是有别于此前的想法。”王小川表示。

据悉,百川智能创立于2023年4月10日,由搜狗公司创始人、前CEO王小川创立,旨在打造中国版的OpenAI,构建中国最好的大模型底座,帮助大众轻松、普惠地获取世界知识和专业服务,并在医疗、互联网等领域应用落地。其核心团队由搜狗、谷歌、腾讯、百度、华为、微软、字节等科技公司的 AI 顶尖人才组成。

目前,百川智能的团队规模已经超过200人,其中研发人员占比超80%。

过去的253天里,百川智能平均每四个星期发布一款大模型,已经接连发布Baichuan-7B/13B、Baichuan2-7B/13B四款开源可免费商用大模型,以及530亿参数的Baichuan-53B、Baichuan2-53B、Baichuan2-192K三款闭源大模型。其中,Baichuan-7B/13B两款开源大模型在多个权威评测榜单均名列前茅,累计下载量超过600万次,在写作、文本创作等领域能力已达到行业较好水平。

融资方面,截至目前,百川智能已公布首轮和A1轮战略融资,累计融资额已超过3.5亿美元(约合25亿元人民币),投资方包括阿里、腾讯、小米、深创投、基石资本等机构。百川智能赞未透露当前具体估值,仅表示融资后公司跻身于科技独角兽行列。根据一般定义,独角兽估值超过10亿美元(约合72.66亿元)。

8月31日,百川智能率先通过国家《生成式人工智能服务管理暂行办法》备案,是首批八家公司中唯一一家今年成立的大模型初创公司,并于9月25日开放Baichuan2-53B API接口,正式进军To B企业端领域,开启商业化进程。

12月4日晚间,鸿博股份披露一则合同公告,百川智能最近与英博数科签署了《云服务协议》,在协议期限内英博数科向百川提供高性能计算或GPU算力技术等服务。协议涉及交易总金额预计13.82亿元。

此次,百川智能主要围绕“大模型+搜索增强”方案公布Baichuan2-Turbo系列API技术细节。

百川智能称,Baichuan2-Turbo系列API在支持192K超长上下文窗口的基础上,还增加了搜索增强知识库的能力。即日起,API用户可上传文本资料来创建自身专属知识库,从而根据自身业务需求打造更完整、高效的智能解决方案。

百川智能表示,其自研的向量模型使用了超过 1.5T token 的高质量中文数据进行预训练,并在通用RAG(检索增强生成)的技术基础上增加大模型自省技术,以解决“幻觉”加重的现象。而且,百川智能通过长窗口+搜索增强的方式,在192K(19.2万)长上下文窗口的基础上,将大模型能够获取的原本文本规模提升了两个数量级,达到5000万tokens,通过搜索增强等技术放置在长窗口模型中有效节省了推理费用和时间成本,并且稀疏检索+向量检索的方式可以实现95%的回答精度,高于单纯的向量检索80%的回答精度。

百川智能强调,搜索增强技术是大模型落地应用的关键,能够有效解决幻觉、时效性差、专业领域知识不足等阻碍大模型应用的核心问题。这种技术不仅有效提升了模型性能,并且使大模型能“外挂硬盘”,实现互联网实时信息+企业完整知识库的“全知”,而且还能让大模型精准理解用户意图,在互联网和专业/企业知识库海量的文档中找到与用户意图最相关的知识,然后将足够多的知识加载到上下文窗口,借助长窗口模型对搜索结果做进一步的总结和提炼,更充分地发挥上下文窗口能力,帮助模型生成最优结果,从而实现各技术模块之间的联动,形成一个闭环的强大能力网络。

据钛媒体App了解,目前,基于百川通用大模型的搜索增强服务价格为0.03元/次(接口自动判断调用搜索增强服务的次数);而基于知识库API接口,费用包括模型调用Embeddings和文件数据存储两部分,收费价格分别为0.0005元/千tokens,以及每天每GB(千兆字节)内存1.5元。

王小川12月18日公开演讲中表示,上个时代的重要工具突破是“搜索引擎”,其作为人类文明的“载体”,成为信息时代的中心应用。而今天,ChatGPT等 AI 大模型所代表的是信息本身的收集和整理,并且在信息之上能产生知识。因此,基于基础大模型,未来大模型将分为三种发展模式:生产力提升、智能助理和开放世界,从而重塑现有行业以及创造全新价值。

“今年下半年之后(至今),我们看到的不再是一股脑地追最新的技术,而是大模型与现有搜索产品的结合,这种结合能够显著减少幻觉问题和时效性问题,从而实现更有潜力的一个应用。”王小川表示。

百川智能表示,目前,多个行业的头部企业已与百川智能达成合作,在深度融合百川智能的长上下文窗口和搜索增强知识库的能力基础上,对自身业务进行了智能化升级。

谈及更大参数模型是否开源,王小川对钛媒体App等表示,“从开源角度看,7B(70亿)、13B(130亿)这种参数模型比较合适的,未来可能会考虑把更大模型打开(开源),但在目前情况下,百川希望让‘这些企业最轻巧的能用(性能)最低GPU就能跑起来’。如果遇到复杂问题的时候,要么是自研,要么就交给百川来进行。”

王小川指出,“中国(大模型)现在总体分成三个阶段,第一阶段是恐慌期,OpenAI有了之后看中国公司还不行,数据飞轮美国先跑起来,是不是那个 AI 要来了,大家有这个探讨;第二阶段我做百川,大家开始火热地关注这件事;第三阶段,大模型学术进展是很快的,每天会有新的进展出来,技术人员每天都要跟进最新东西,不断迭代、不断改进,行业发展速度其实超出外界看法,目前需要快速迭代技术。”

王小川最近表示,百川智能在进行超级应用的探索。他期望在未来两年内,百川智能能证明大模型能够在健康、娱乐和创造上成为超级应用,带给人们像互联网时代那样的巨大帮助和希望。五年后,人们可能会有新的互动方式,比如拥有机器人、戴着VR眼镜以及每个人都有数字分身等。

“五年的时间太长,能够想到两年的画面,我就很满足了。”王小川表示。

王小川曾对外透露,预计明年一季度前后推出百川智能的“超级应用”。但钛媒体App问及目前“超级应用”进展情况和发布时间等问题,王小川未予回应。

“我觉得今天能做体量比较大的模型,还能做超级应用,这种公司最多5家。”王小川对钛媒体App等表示,“今年是中国 AI 大模型发展的元年,明年国内各家公司都会有相应的成绩出来。而今天,大家需要把精力放在模型本身,应用还处于初期状态,明年会差不多。”

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!