关注技术潮流和人工智能发展的网站

TOB AI,跑通了?

🔗 B端产品经理两大难题:如何从市场,用户,业务等多个角度分析和设计产品?如何有效地管理和推进项目落地?

本文将探讨AI如何在B2B领域找到其独特的价值定位,以及如何通过创新的方式解决传统业务流程中的痛点。我们将深入分析AI技术的最新发展,以及它们是如何被应用于提高企业效率、降低成本和增强决策支持的实际案例中。

最近,朋友给我反馈:Kimi广告投放真猛。

听网易音乐、刷bilibili都能看到,说产品给普通用户使用的,这点儿毋庸置疑。不过,8月才过半,Kimi一些行动却让人感觉有些不同。

不同在哪呢?

一方面,8月2日,Kimi的母公司月之暗面(Moonshot AI)宣布正式发布了Kimi的企业级API。这种企业级模型,相比普通用户版,提供了更强的数据安全保护和更快的处理速度,能够帮助企业处理复杂的工作和大量数据。

紧接着,他们宣布将Kimi开放平台的上下文缓存Cache技术的费用下调,从原来的10元每1M tokens每分钟降到了5元。我了解到,这项降价从7月1日就已经开始在开放平台上进行公测了。

读到这里,也许你会好奇,缓存Cache到底是什么?

什么是B端产品经理?和C端产品经理有什么区别?

B端产品经理中的B是Business,商业的意思,B端产品经理首先就要理解这个职位的重要性,要设计出更适合这个项目需求的产品方案,B最终产品经理在日常工作中…

查看详情 >

简单来说,它的作用是提前存储那些可能会被反复使用、经常被查询的文本或数据,从而在不增加成本的情况下提高模型的推理效率。

所以,这些动作让我不禁思考,AI在B2B领域,是否已经找到了一条有效的道路?经过一圈调研,我认为:是的。

01

先说一个行业共识:AI应用无疑是模型成功的关键。

今年,世界人工智能大会上,百度CEO李彦宏讨论了他对大模型应用的一些看法。他说:尽管C端开发很重要,但B端应用场景,才是大模型能够取得更好成果的地方。

他认为,AI时代,能够深刻影响产业,显著提高效率的应用更具备价值,他预见,在医疗、金融、教育、制造、交通和农业等领域,将会根据各自的特点和数据资源,开发出定制化的智能体,未来智能体将达到百万级别,形成一个庞大的生态系统。

今年,百度在医疗、金融、能源、环保和交通等多个领域中标了17个项目,涵盖大型国企、行业领头公司,金额也非常可观。

显然,李彦宏认为,AI应用要快速落地到智能体上。

咱不说具体落不落到智能体上,那么多标书,也要一个个交付,一年半载不作出个成型的东西来,客户肯定是不愿意的。

我们再看(Moonshot AI)创始人杨植麟怎么看。

6月份,极客公园创始人张鹏与杨植麟的一次对话中,杨提到他们并不完全排斥B端,但主要还是专注于C端。他的产品Kimi在AI领域已经达到了顶级流量和使用量。

尽管如此,用户在高峰时段经常体验到由于算力不足而导致的问题。为了应对这种情况,他们采取了一些措施来降低运营成本并提高效率。

其中之一,是通过缓存技术来优化模型的推理性能,这项技术使Kimi在处理复杂请求时能够更快响应,减少了重复计算的需要。

这种改进不仅提高了系统的响应速度和处理效率,还确保了对话或文本生成的连贯性和准确性;这在未来,面对可能做B端生意时,要大量集中处理数据请求时,显得尤为重要。

因此,杨植麟认为,若想转向B端,首先必须解决算力问题,确保算力的稳定是基础。

另一方面,我觉得,做C端生意不那么性感,他主要通过广告投放换转化,长期看,没有那么引人注目。

我从多名广告从业者口中了解到,从2024年上半年开始,人均转化成本在不断上升,每一个 Kimi PC 端的用户转化,基本达到40元/人,这个数据我没有求证官方。

不过,就大趋势看,C端场景下的AI市场竞争成本不断提高,无疑推动许多AI公司,重新评估他们的市场战略。

所以,C端市场虽然潜力太,但B端的应用场景,才是实现大模型深远影响和高效成果的关键领域,毕竟,只有为企业实现真正的降本增效,才能推动行业乃至整个产业的进步。

02

既然共识正确。那么,智能体、或AI、大(小)模型如何有效切入B2B领域呢?第一个办法是,做B端的上游。

什么意思呢?

所谓B端上游,即供应链的源头。举个例子:假设有家医药公司,有利用AI的需求和应用场景,但作为大模型公司切入很困难怎么办?

这时,你发现这家医药公司正在使用某种SaaS软件,AI大模型公司可以考虑与软件供应商合作;这样,AI就能被加到现有的软件产品里,医药公司就能在用软件的同时,顺利过渡到使用AI。

这是很多传统B端业务人的思考方式。

其实,B2B软件有多种部署形态。首先,本地化部署,将软件安装在客户自己的服务器或设备上,让客户能控制数据和安全。

这种方式需要定期升级,维护起来麻烦且成本较高。比如,以前奔驰、宝马这些大厂商,为了管理代理商,会采用传统的CRM系统作为本地化部署。

但本地化部署在实现AI集成时面临很多挑战,尤其要预先训练好的模型;这样的模型一旦安装,即便在不联网的情况下,也能够响应客户的查询。

虽然许多ToB公司都有意尝试,但现实操作的复杂性很高。例如,医药集团或医院,他们的数据管理需求庞大,一旦需要更新软件集成新的AI功能,整个过程将极为复杂。

另外,对项目负责人来说,他们要向老板解释,为什么要花大笔钱引入AI功能。

比如:

花2000万搞一个模型。听起来好像很厉害,我们有了AI能力,但实际情况可能让人觉得,这不过是一个AI知识问答系统。这么看,总觉得不太划算。

还有一点,即便企业引入一个模型,万一员工用不去来怎么办?那这笔钱不就打水漂了?于此,怎么算都不合适,当然,一些公司甚至连知识库都没有,更没必要引入AI能力了。

而SaaS模式,作为另一种形态,允许用户通过订阅方式支付费用,如飞书等协同工具。这种模式下,SaaS公司可以直接集成AI功能,甚至有能力绕过小模型公司,直接从大模型公司购买服务,进行流程改造。

在所有这些形态中,SaaS模式集成AI功能最为简便,因为服务提供商可以在后端统一更新和维护AI功能,客户无需担心技术细节。

因此,从上到下看,提供AI解决方案的公司可能拿下一些订单,但真正让客户成功的过程可能相当艰难,付出与收获往往不成正比。

03

那么,有没有一种新的解法呢?有。不妨自下而上看。

我们要建立一个新认知:

在公司里使用AI,实际上,是找到了一个突破口,它主要帮我们提高做事的效率,AI一般用来加强已有的工作流程,而不是彻底重新开始。

什么是彻底开始?

即从头开始,完全重新制定某个事物的流程,不依赖任何现有的结构和计划;在工作流程或项目管理的语境中,这意味着放弃旧的方法和系统,采用全新的方法来解决问题或执行任务。

比如说,一个公司原本使用一个非常传统的客户关系管理(CRM)系统。随着时间推移和业务的增长,这个系统无法满足公司的需求了。

公司决定不再对老旧系统进行修改或升级,决定从头开始开发一个全新的CRM系统,这个新系统将使用最新的技术栈,设计更符合现代业务流程的功能,并且可以更好地集成最新的数据分析工具。

这就是一个“彻底开始”的例子。但是,你知道吗?AI颠覆流程再造的过程,AI大部分时间是在处理人类已经很熟悉的工作,不用重复再造轮子。

什么意思呢?

当一个公司开始用AI模型时,这些模型得和公司自己的工作流程紧密结合。比如,有些公司在医疗或教育领域想用一些高级的大模型,但这过程可能会碰到很多难题。

因为每个公司的业务和流程都是特别的,AI需要的数据也特别,所以通用的大模型可能不太合适,在公司里要真正用上这些宽泛的理念,通常很难。

怎么办?这个时候,有一个小模型、小助手就好办了。

比如说:

中小企业的会计通常用金蝶、用友、畅捷通这些软件。这些软件里已经存了很多数据;对于操作员来说,他们只是想用AI的力量快速找到一个数据,或者得出一个结论就行了,不用去大改原来的软件。

所以,要把AI用到企业(ToB)的场景中,一个好方法是把复杂的业务流程分解成很多小任务,或者是具体的小场景,然后在每个小场景中用AI来帮忙做改进。

我们还看到,像微软这样的OpenAI的投资方,以及作为CRM行业领头羊的Salesforce,他们并没有用AI开发出全新的产品。

虽然他们不断地为产品加上新功能的标签,但实际上,是在现有业务流程或产品功能中,利用大模型进行辅助和增强。

也就是说,它们把小模型,精炼成了一个助手,或者说一种增强能力,这样可以更好地融入并优化现有系统,而不是完全替换它们。

这有点像最近很多AI公司在PC端做的那些插件。你只要轻轻一滑鼠标,或按下快捷键,AI就能弹出来帮忙。它们的核心功能,是帮助我们做出更好的决策。

04

不信,你还可以思考下:对于ToB企业来说,真正需要AI来做什么?

经过智远调研认为,他们主要是用数据来帮助做运营、管理、决策和营销方面的决定。那么,对AI公司来说,怎么样才能做到既实用又省钱呢?关键就是要实现快速复制,用很低的成本覆盖多种场景。

怎么复制?

一个办法,把AI封装成一个智能体,它可以调用本地数据。这就是为什么Kimi Chat会降低缓存Cache的费用;因为把那些被频繁使用的本地文本存下来,可以帮助提高小助手的准确度。

但这里有一个问题,怎么做到既准确、又通用,同时成本还低呢?

对此,我们可以这样定义“高准确率”:业务能用就行,准确率足够高,即使偶尔出错,用户也能识别出来,并且能解释为什么会这样。

“低成本”则意味着项目初期的成本必须低,能在单一机器上部署,并且使用和维护都很简单。现在很多大模型的硬件成本很高,如果公司还不确定能赚多少钱,肯定不愿意投入太多。

大模型的优势在于解决了早期AI算法的通用性问题。

理论上,一个模型可以应对所有场景;实际上,我们要对它进行微调。所以,我们将“高通用性”定义为能够实现工具化和自动化,这样就能大规模复制,实现低成本落地。

一个亿级大模型已经实现了超过95%的准确率,然后,我们从这个大模型衍生出一个小模型,把它封装成助手,这样就解决了使用入口的问题。

想象一下,大模型公司有一个超级强大的大模型解决方案,它就像一个父模型,支撑着整个企业的广泛需求。

这个大模型特别厉害,可以处理复杂的数据分析,给出非常准确的见解。它特别适合需要大量计算资源和进行大规模数据处理的B端公司。但其实,并不是所有B端公司都要这么庞大的系统。

对于更多的中小型企业来说,一个更小、更专注的模型就足够了。我们可以视作大模型的“子模型”。

这些小模型从大模型中继承了核心能力,但经过了优化和调整,这样它们能更好地适应具体业务需求和小规模的操作环境。

小模型不用大模型那样多算力,而是专注特定的任务,能够根据不同需求调整,比如生成智能的分析报告或者进行智能分析。

这就使得资源有限的小型企业也能用上AI,提高工作效率和决策质量。

所以,小模型像从大模型中提炼出来的精华,它只要有基本的知识库能力就够,关键是把它做成一个小助手,嵌入到工具中使用。

千万不要认为这代表逻辑正确。经过智远调研,目前已经有AI产品落地到了B端企业中;所以,对于TOB来说,AI应用场景,是智能体,是插件。

这么做还有一个好处即容易交付,不用投入昂贵的成本。

总结

TOB AI,没走老路。

如果说小模型是TOB关键点,那么,将其做成智能体、小助手,就是连接TOB最后一公里的关键环节,毕竟,自下而上,是以人、以任务为中心,不是以软件为中心。

赞(0)
文章名称:《TOB AI,跑通了?》
文章链接:https://www.jiankangbaoxianwang.com/archives/8907.html
【免责声明】资讯内容中如有提及保险产品信息仅供参考,具体请以保险公司官方正式条款为准