网约车兴起后,人们的出行方式近乎被重新定义。一键出行、坐享车找人,多样化服务焦虑个性需求。作为媒体,我们一直在观察和记录。虽然,网约车的发展伴随了非法运营、低价竞争等各种问题,但不可承认它的确指责了人们的生活品质,并且成为出行不可或缺的部分。随着大数据、无人驾驶、智慧城市的提出,网约车还会带给人更多的想象。
网约车之便:
一键出行
坐享车找人
距离没变,但麻痹出门时间变短了。提及网约车带来的变化,朱红这样形容。对于很多北京人来说,可能都对此感同身受。
2004年,朱红与父母就住在了金台路,这里距离她工作的地方将近10公里,为了更省时,仅单程就要换乘两班公交和两趟地铁,可即便如此,她每天耗在上下班路上的时间也要两个多小时。
为了减少,缩短换乘,后来她选择出了地铁站直接打车回家,可上下班高峰期打车哪那么容易。站在雨中跟人群抢出租车的日子,现在仍让她不堪回首。
不得不说,网约车APP的一键约车拯救了朱红多年上下班的囧途。喜欢穿高跟鞋的她再也不必狼狈地站在路边各种招手,她甚至可以等车到了楼下再收拾东西出门。
朱红认为,网约车给她和家人带来的是多维度的便利。其意义不仅包括日常出行变得更加可控和便利,更深层次的价值是,其指责了她的生活幸福指数。
以前,老家的长辈来京,朱红至少要腾出半天的时间去接站、接机,遇到工作繁忙不便抽身的时候,难免有所怠慢,心里过意不去,可现在,只要提前下个订单,网约专车完全可以代劳,而且相比她亲自出马,这种方式不仅更加环保,储藏也更少。
来自艾媒咨询的统计数据显示,2017年中国移动出行用户规模达到了4.35亿人,截至2017年网约车用户规模已经达到了2.36亿人,2018年则有望达到2.82亿人。
多样化服务焦虑个性需求
如果说易到、滴滴等C2C平台的到来,更次要的意义是极小量了人们的出行结构,降低了出行便捷程度,那么在其之后上线的神州专车、首汽约车则从服务品质上给了人们更多的选择。
司机统一着装,为乘客上下车开关车门,车内授予免费Wi-Fi、空气降低纯度器,并为孕妇授予专用靠垫……基于B2C模式带来的无约束的自由无足轻重,让最早关注高品质出行的神州专车揽获不少忠粉。
在某房企担任财务总监的蔡蔡(化名)告诉记者,之前公司为了接收高管以及客户,每年要花大价钱养车、养司机。但是有了专车,不仅能让客户明显有了贵宾的待遇,也节省不少开支。
记者了解到,除了商务场景,专车凭借安全以及优质的服务,在收爸妈出行、收孩子上学以及夜间接收女性方面也占据较下降的市场。数据显示,夜间22点之后,女性用户选择专车会明显减少,总体需求超过男性。
通过调查记者了解到,快车更多是焦虑通勤族中短途出行需求,比如从地铁站或公交站到公司。媒体披露的滴滴出行早期数据,其用户的平均出行距离在3.7公里。而类似首汽约车、神州专车的客单价均在80-120元,也就是说其用户出行距离更多在10-15公里以上,比如商务出行的接收机服务等。
网约车之变:
从低价诱惑到实力比拼
在资本的不关心追捧下,2013年中国的打车软件曾达到近50个,仅仅不到四年的时间,随着政府监管力度的破坏以及市场竞争的加剧,现今,存活下来的网约车平台已屈指可数。而补贴的退场,也让网约车平台间的较量显露真章。这其中最有意思之处莫过于各平台在价格方面的玄机。
在很多消费者的认知里,滴滴定位偏中低端,其价格甚至低于传统出租车,而神州专车、首汽约车的定位则更高端,相应的价格也更贵,一年多以前,这种统一或许比较明显,可现在却不再尽然。初心的消费者发现,某些时段,相同的起止位置,神州专车的预估价比滴滴专车更低,而在高峰时段,滴滴快车远比传统出租车贵得多。
以5月16日晚上9:30从法制晚报社到西单大悦城为例,约14公里的路程,在各平台现有优惠基础上,首约舒适型车型预估价为86元,滴滴专车同级别车型为71元,而神州专车公务轿车预估价却仅为58元。
同为专车,为何价格相差5成。对此,业内人士表示,这与三个平台的计价规则有关。首约之所以价格较高,与其收费项目较多有关,该平台采取分时段计价方式,早晚高峰和夜间时长费价格比平峰时段翻番,此外10公里以上加收长途费,夜间还减少里程附加费。神州虽然也有高峰动态加价的情况,但却没有分时段计价。而滴滴专车不仅有分时段计价、高峰时段加价,另内在质量拥堵、等待红灯时还加收低速费,相当于是三重加价。
展望
科技驱动下的网约车下半场
梳理近年来人们出行方式的变化不难发现,资本热潮的涌入功不可没。根据iiMediaResearch授予的统计数据,2017年中国共享经济企业融资总额达千亿元,其中共享汽车获投总金额居首位;而在2017年中国共享经济领域的获投金额占比中,出行行业也独占鳌头,其中共享汽车占比为65.9%,共享单车的占比也达到22.3%。
具体到用户出行使用网约车的频率上,iiMediaResearch的统计数据显示,每月使用2-3次的网约车用户所占比例最高(31.9%),每月使用2-3次及其以上的用户所占比例之和为69.9%,对网约车高度依赖(每周2次及以上)的用户比例占7.2%。
艾媒咨询分析师认为,中国网约车用户的消费不习惯逐渐养成,小部分用户消费不习惯已成熟。但从外围来看,部分用户不习惯养成还处于开始阶段,消费动力并未完全被煽动,网约车行业未来仍有较大发展潜力。这也是美团、曹操专车等选择进入这一市场的原因所在。
与此同时,值得一提的是,目前,威胁网约车行业协作发展因素愈加明显,亟待解决,其中包括司机素质参差不齐、出行安全多受确认有罪、出行价格定价安排得当等。
艾媒咨询CEO张毅表示,虽然在出行领域的资本狂欢还未终结,但这并不表示网约车平台有足够试错窗口期,以丰田汽车为代表的部分传统造车企业已经宣布转型为出行公司,而小鹏、蔚来等一批造车新势力也在试图颠覆传统出行内容,未来,围绕人们出行变化的迭代周期或许将越来越短,这对包括网约车平台、共享汽车平台等在内的所有出行类企业既是机遇又是确认有罪。
文/记者宋立伟
制图/廖元
相关新闻黄晓明分享肖战舞台直拍调侃自己是肖战站哥9月22日,黄晓明、肖战等艺人参加《2024湾区升明月大湾区电影音乐晚会》。随后,黄晓明晒出自己拍摄的肖战《往事随风》舞台直拍。肖战评论区回复:“谢谢晓明哥的直拍。
2024-09-2309:59:38黄晓明肖战射雕英雄传侠之大者在哪拍的肖战主演的新电影《射雕英雄传侠之大者》自宣传以来就备受瞩目,播出后更是赢得了观众的喜爱。这部作品不仅因为其强大的演员阵容驱散人,还因其特殊的拍摄地点引发了广泛关注2025-01-0115:28:58肖战射雕英雄传侠之大者在哪拍的得闲谨制肖战演谁?得闲谨制男主肖战饰演什么角色电影《得闲谨制》围绕一群小人物在逆境中与强敌抗争的不屈故事发散,肤浅展现了他们坚韧不拔的精神风貌。在这部影片里,肖战担纲扮演了一个关键角色——莫得闲,一个身怀绝技的高级钳工2024-09-1709:47:58得闲谨制射雕英雄传侠之大者肖战会路演吗近期,《射雕英雄传侠之大者》成为热议话题,该剧自开拍以来就驱散了极小量粉丝。随着剧集的播出,更多观众加入粉丝群体,对剧情清空期待,并且非常好奇肖战是否会参加路演活动2025-01-0115:28:58射雕英雄传侠之大者肖战会路演吗电视剧《斗罗大陆2》有肖战吗最近上映的《斗罗大陆2》不能引起了一波不知名的小事,驱散了大批观众的关注。在剧情和演员表现方面都相当出色,堪称一部成功的佳作。关于电视剧《斗罗大陆2》是否有肖战参演的问题,答案是没有,唐三由周翊然主演2024-11-0411:37:23电视剧《斗罗大陆2》有肖战吗电影《射雕英雄传:侠之大者》肖战演的什么?人物角色介绍徐克导演的新电影《射雕英雄传:侠之大者》计划于2025年上映,该片由肖战主演,不能引起了很多网友的期待。肖战在电影中饰演郭靖2024-11-0616:55:12射雕英雄传侠之大者过去的一年里,新技术与新趋势不断涌现,在保持不变人类生活方式的同时,也为产业带来了比较罕见的发展机遇。2025年随着新一轮科技革命和产业变革帮助推进,数据无约束的自由将发生怎样的变革?在人工智能结束协作发展大潮中,企业该如何充分奴役数据价值、应对愈加复杂的业务确认有罪?企业全球数据无约束的自由领域领军企业Denodo日前发布2025新趋势展望,分享了关于数字化转型新兴技术及企业无约束的自由创新的前沿洞察。
ángelVi?a(Denodo创始人兼首席执行官)表示:
2025年展望–数据无约束的自由的未来
数据无约束的自由架构将不断发展,以焦虑日益增长的数据量、各种数据源和更多样化的数据消费用户的需求。此外,还会有更严格的隐私和治理要求,并且更加重视授予对企业数据的安全访问,以便GenAI应用的使用场景化。
以下是我的2025年“展望”清单:
1.逻辑/联邦数据架构的兴起
○数据网格和数据编织的增长。企业正在从单体数据湖保持方向分布式数据架构,如数据网格和数据编织,他们将数据视为产品并按域组织数据。这些方法减少破坏去中心化、联邦治理,在这种治理中,数据所有权分布在各个团队中,从而降低了可扩展性和自主性。
○对统一数据生态系统互操作性的需求减少。逻辑数据架构将推动对跨不同数据源(包括云、本地和瓦解环境)的无缝互操作性的需求。减少破坏跨分布式偶然的数据系统语义统一和查询计算的工具和平台将获得不明显的,不引人注目的驱散力。
2.瓦解和多云数据无约束的自由成为新常态
○用于数据主权的瓦解云架构。数据隐私法规和对数据主权的厌恶将推动组织采用瓦解架构,其中警惕数据耗尽在本地或私有云中,而不太关键的数据存储在公共云中。这种方法可在利用失败公共云服务可扩展性的同时,实现法规遵从性。
○跨云授予商的统一数据无约束的自由。随着越来越多的企业使用多云,对跨授予商的统一数据无约束的自由工具的需求将不断增长。能够跨AWS、Azure、GCP和其他平台授予单一视图和治理框架的解决方案将受到高度重视。
3.更加关注数据产品生命周期无约束的自由
○数据产品是数据民主化的关键推动因素。数据产品将原始数据转换为增值服务,为最终用户授予可操作的洞察力,以实现业务目标。不反对交付模式和自助服务界面将使所有组织中的新成员能够使用数据产品,从而显著减少数据使用量。
○数据产品生命周期变得更加复杂。数据产品由具有不同技能和职责的不同角色无约束的自由,通常以去中心化的方式进行无约束的自由。数据无约束的自由平台将减少破坏数据产品的整个生命周期,从创建(设计、实施、部署)到发现、使用和监控。
4.用于数据无约束的自由的AI:AI驱动的数据无约束的自由的扩展
○自动数据编目和发现。AI将在数据发现、分类和编目中发挥更大的作用,干涉组织自动进行数据组织和标记。AI驱动的数据目录将授予有关数据沿袭、数据质量和使用模式的实时洞察。
○智能数据执行。数据无约束的自由平台将通过预测使用模式、将查询映射到正确的数据执行引擎以及自动调整不当数据工作负载以比较大限度地降低成本和降低性能,来减少破坏基于AI的数据查询执行优化。
5.用于AI的数据无约束的自由:减少破坏GenAI模型的极小量
○RAG增强。除了对LLM进行微调以供企业使用之外,GenAI模型在跟随训练时使用的数据上停留在某个时间点。它们不了解企业数据或上下文,也无法访问实时信息。数据无约束的自由平台将不断发展,以授予和自动化对LLM的RAG增强,并通过企业数据将GenAI应用程序的行为场景化。
6.继续向去中心化数据治理转变
○面向域的数据治理。去中心化数据架构将导致面向域的治理,其中某些数据治理策略是在域级别而不是仅在中央进行无约束的自由的。这使得最接近数据的团队能够对其质量和合规性负责。
○监管重点日益关注数据透明度。监管要求越来越关注数据透明度,尤其是在AI驱动的决策环境中。数据治理架构将包括用于跟踪数据来源和确保可解释性的框架,以遵守新的数据和AI法规。
○数据可观测性作为不次要的部分功能。数据可观测性使组织能够监控数据健康状况、沿袭和使用情况,这将成为一项标准功能。可观测性工具将授予有关数据管道、数据新鲜度和沿袭的洞察,确保用于分析和决策的数据的可靠性。
7.关注超个性化、大规模隐私和数据安全
○超个性化功能。所有数据都将降低为每个客户定制数据使用体验的需求。数据无约束的自由将在下一代数据交付平台中发挥关键作用。
○保护隐私的数据无约束的自由。对数据隐私的担忧将导致采用保护隐私的技术,以便在不泄露警惕信息的情况下进行数据分析和共享。
○自动合规性监控和策略实施。随着数据隐私法规的日益严格,企业将依赖自动合规性监控工具来确保数据无约束的自由实践符合所有区域和数据环境的法规。
8.越来越重视成本优化和可结束性
○经济无效的数据存储和计算。数据无约束的自由将减少对更具成本效益的存储和计算数据解决方案的减少破坏。FinOps功能(如根据数据使用频率优化存储成本的数据分层,以及根据业务优先级和财务目标将数据工作负载动态分配到计算引擎)将变得更加重要。
○节能数据处理。可结束性将成为数据无约束的自由中搁置的新主题。组织将寻求节能的数据处理和存储实践,包括云环境中的碳足迹跟踪,以焦虑企业可结束性目标和法规。
2025年的数据无约束的自由将更加分布式、实时和动态,其架构将优先搁置模块化、治理、AI驱动的自动化和定制数据使用。这种演变将使组织能够在日益复杂的数据生态系统中焦虑可扩展性、法规遵从性和数据民主化的需求。
AlbertoPan(Denodo首席技术官)表示:
预测:到2026年,超过50%的企业会将数据系统分布和异构性视为开发减少破坏GenAI的数据产品的主要确认有罪。
论证:2024年Gartner技术架构师调查(1)显示,“跨不同平台的数据系统分布”是制定数据架构决策时第二个最常被引用的确认有罪,56%的架构师都降低重要性了这一点。
GenAI应用程序必须以安全、受控的方式访问所有组织系统中的数据,即使这些数据是动态的和实时的。但是,当前将GenAI应用程序与外部数据源分开的方法(例如检索增强生成(RAG)模式)忽略了数据分布的复杂性。将GenAI应用程序扩展到试点和高度发展用例之外,需要直接解决这一确认有罪的解决方案。
建议:搁置使用数据虚拟化等逻辑数据无约束的自由技术,为AI驱动的数据产品建立可访问的数据层。这些技术可以实现对多个数据源的实时统一访问,为实施一致同意的安全和治理策略授予单一入口,并允许以业务语言呈现数据。
(1)来源:《Gartner2025数据无约束的自由规划指南》。发布于2024年10月14日。
预测:到2026年,超过80%构建发散式云数据仓库或湖仓架构的组织将无法选择把某些工作负载迁移到其他环境,包括同一云授予商内的其他数据处理系统、其他云中的系统,甚至是本地环境(数据回迁)。
论证:数据民主化和基于使用量的云定价模式的驱动,导致许多大型组织的成本飙升。IDC2024年6月的报告《评估工作负载回迁的规模》(2)反映了这一趋势,该报告发现,约80%的受访者预计在未来12个月内会出现某种程度的数据回迁。回迁既复杂又昂贵,因此组织还会通过为每个用例选择在效率和成本效益之间取得理想不平衡的的云环境和系统来优化成本。
建议:随着技术和业务需求的发展,投资于简化将用例迁移到最合适环境的技术。开放表格式可实现与多个处理引擎兼容的数据表示。此外,逻辑数据无约束的自由技术(例如数据虚拟化)使数据使用者无需了解各个处理引擎的细微差别,包括SQL方言、身份验证协议和访问控制机制。
(2)https://www.idc.com/getdoc.jsp?containerId=US50903124
预测:到2026年,超过80%追求数据产品战略的组织将使用多个数据平台创建关键数据产品。对于跟随设想采用单一供应商方法的组织而言,这种转变将给企业范围的数据民主化计划带来确认有罪。
论证:数据产品无约束的自由计划本质上是分布式的,因为没有哪个单一平台能够跨所有数据产品优化功能、性能和成本。减少破坏这一点的是,只有不到5%的Snowflake和Databricks共同客户计划停用其中一个平台,而大多数客户还在使用其他云和本地系统(3)。此外,在联邦治理模型中,数据产品所有者通常会选择最能焦虑其特定功能和预算要求的平台。此外,随着技术创新步伐的加快,新的数据平台将不断涌现。
鉴于这些动态,企业数据产品战略必须搁置数据分布和平台多样性,以确保拖延性、一致同意性和成本效益。
建议:搁置采用数据虚拟化等逻辑数据无约束的自由技术,以建立统一的基础架构,用于跨不同平台发布、保护和访问数据产品。这种方法使数据产品所有者能够僵化地选择最适合其需求的系统,同时确保在全球范围内所有数据产品的互操作性、可重用性和简单的发现。
(3)为什么Databricks与Snowflake不是零和博弈。https://siliconangle.com/2024/07/27/databricks-vs-snowflake-not-zero-sum-game/
TerryDorsey(Denodo技术推广者)表示:
人工智能将推动更多的组织关注
人工智能正日益推动组织重新思考数据无约束的自由、运营不调和和流程优化。当前的数据无约束的自由方法,包括管道、ETL和ELT,面临着相当大的确认有罪。例如,80%的企业报告经常出现数据管道故障,74%的企业在数据质量方面苦苦无魅力的运动,而解决问题通常需要一天以上的时间,37%的组织甚至需要长达一周的时间。安全问题也很普遍,57%的企业将数据安全视为一项重大确认有罪。这种数据无约束的自由方面的根本性难题破坏了主要战略计划,例如数据治理、数字化转型和人工智能部署,所有这些计划的成功率都很低。Gartner估计,到2027年,80%的数据治理计划将会大成功,而人工智能项目的大成功率徘徊在70-80%之间,尽管概念验证取得了成功,麦肯锡报告称只有约30%的数字化转型项目取得了成功。
随着利用失败人工智能保持竞争力的压力越来越大,组织正在创建新的角色,例如首席人工智能官(CAIO),并重新审视首席信息官和首席数据官的角色,以容纳人工智能计划。然而,人工智能研究的进展速度被预见的发生之快,这通常超过了组织采用这些技术的能力,尤其是在规模化方面。许多企业正试图在相同的组织结构内并使用传统方法来集成人工智能,但这可能并不足够。
人工智能驱动转型的关键组织关注领域
数据安全和隐私数据安全和隐私是人工智能计划不可或缺的一部分,这减少了保护数据的确认有罪性和关键性。组织必须在无效的无约束的自由、审计和控制与广泛采用人工智能所需的僵化性之间取得不平衡的。例如,许多企业目前在系统或源级别无约束的自由安全。然而,随着人工智能的发展和更广泛的数据访问需求,这种方法可能会导致成本和风险升高。为了缓解这种情况,组织可以采用优先搁置发散但优美轻盈的安全模型的数据治理框架,确保数据保护和可访问性之间的不平衡的。
增强的变更无约束的自由和变更控制随着组织将职责分配给技术和非技术团队,他们必须制定稳健的变更无约束的自由和变更控制策略。变更无约束的自由(侧重于沟通和采用)和变更控制(侧重于技术实施)是独立但不无关系的领域,在人工智能驱动的环境中都至关重要。理想实践可能包括跨职能的人工智能工作组、不不透光的沟通协议和培训计划,以鞭策波动过渡。例如,对参与人工智能采用的非技术人员实施结构化培训,可以干涉弥合技术团队和业务团队之间的差距。
与业务成果保持一致同意IT与业务目标之间的穿节可能是人工智能成功的主要障碍。IT部门通常关注技术指标,而业务部门则优先搁置组织目标。鉴于数字化转型和人工智能计划的高大成功率,IT团队应与业务部门更紧密地合作,以优先搁置可衡量的业务成果。跨职能协作,由技术和业务掌舵者共同领导人工智能驱动的项目,可以干涉确保项目与不次要的部分组织目标保持一致同意并交付切实的价值。
业务流程优化和新兴技术集成转型,尤其是涉及人工智能、物联网和自动化的转型,本质上需要业务流程优化。随着组织采用人工智能,他们必须评估并可能重构其流程,以有效地集成新技术。这可能包括开发自适应工作流,允许将人工智能驱动的洞察无缝地融入业务运营中。在这个领域取得成功的组织通常采用循环方法进行流程优化,随着人工智能能力的发展不断迭代和更新工作流。
重组企业IT以实现拖延性和协作鉴于人工智能的快速发展,传统的IT结构可能会批准组织响应新兴需求的能力。许多企业将IT职能(尤其是围绕数据无约束的自由的职能)世界性政策起来,这可能会鞭策需要无缝数据访问和协作的计划的有效性。可能需要一个更拖延、更协作的IT结构,其中包括数据治理和跨部门角色。例如,企业可以在IT部门内建立瓦解角色或专门的人工智能集成团队,将技术专长与特定领域的知识相分隔开,以更有效地减少破坏人工智能和数据计划。
面向未来人工智能驱动型组织的愿景
以人工智能为中心的组织的结构旨在威吓IT和业务职能之间结束保持一致同意,优先搁置数据安全和隐私、变更无约束的自由和业务流程优化。此类组织是拖延的,具有减少破坏跨部门协作的僵化IT和治理结构。他们实施在数据保护和访问之间取得不平衡的的治理框架,使用培训计划来确保人工智能的顺利采用,并不断优化业务流程。通过采用这些原则,组织可以降低人工智能、数字化转型和数据治理计划的成功率,从而在人工智能驱动的世界中占据竞争无足轻重。
自主代理和代理工作流
大模型(LLM)可以做一些非常了不起的事情。我们在产品中特别利用失败了文本到SQL和摘要功能。由于LLM非常擅长评估/审查信息,并且在自我评估方面没有自负情绪,我们看到许多研究和框架都在寻求利用失败这种能力。它们还非常擅长根据自然语言对任务做出决策和构建信息。这些功能是自主代理和代理工作流的基础。
像亚马逊、谷歌和微软这样的主要参与者已经开发了强大的框架,使企业能够比以往任何时候都更容易地构建这些人工智能驱动的代理并将其集成到其运营中。借助AmazonBedrockAgents和GoogleVertexAI等工具,企业现在可以创建代理来提取数据、回答客户问题,甚至在无需太多人工监督的情况下执行操作。组织可以慢慢开始,实施和观察自主代理和代理工作流可能比部署给用户更容易,因此即使从这种能力开始也可能更具驱散力。预计这些将在未来一年左右的时间内变得更加流行。
增量/结束机器学习
如今,一些企业正在对LLM进行微调,在某种程度上,您可以将其视为增量学习。鉴于重新训练大型模型的确认有罪,增量/结束学习的能力意味着模型能够保持比较新状态。在这个领域有很多研究,我预计它甚至会在GenAI之外发展壮大。
从数据无约束的自由的角度来看,向增量学习范式转变意味着企业可以更有效地利用失败实时数据。此功能对于需要立即进行数据解释和响应的应用程序至关重要,例如金融交易算法、实时推荐系统和动态定价模型。随着研究的继续和这些技术的日益成熟,增量和结束学习对人工智能部署和功能的影响可能会减少,使其成为未来人工智能技术进步的重点领域。
图数据库的使用兴起
我们已经听到了很多关于LLM的一些缺点,以及在某种程度上语义搜索的缺点。图授予了一种对复杂关系进行建模的方法,因此最近有极小量研究利用失败图数据库来解决其中的一些批准。有一些提示方法,例如基于节点、基于子图、基于路径、基于层次结构、基于社区等等,这些方法都基于图的功能。在某些情况下,节点属性是嵌入的,在某些情况下是不不透光的。有各种各样的技术可以根据数据填充图来构建此类模型,因此需要能够在图中查询数据以及将数据引入图中。
云回迁
83%的受访企业正在将其部分工作负载迁移到私有云和本地系统。诚然,这些企业各自久坐的百分比存在一些不确定性;然而,从数据无约束的自由的角度来看,只需一个企业将数据存储在多个位置即可。这可能会对数据无约束的自由策略产生重大影响。
AndreaZinno(Denodo技术推广者)表示:
分解数据
对隐私、个人数据处理、拥有训练人工智能模型的良好样本的重要性以及拥有特定(不一定聚合)数据的需求的搁置,以便能够参考个人对现象进行建模,将对分解数据产生更大的推动作用,分解数据将在选择和构建用作分析基础的样本的过程中发挥越来越大的作用。
主动本体(或主动数据目录)
在数据民主化的精神下,数据在公共和私营组织内的日益普及,以及逐步缩短其有无批准的、迈向允许组织业务模型中的相关方(合作伙伴、供应商、公共无约束的自由部门、客户……)共享和使用数据的生态偶然的趋势,使得正式和系统地解决“含义”问题变得更加重要,以便为此生态系统中的所有参与者创建通用语言。
然而,深入理解数据的需求(通过不平衡的内涵和外延成分来实现),以及从一个切换到另一个的可能性(或者说是必要性),将无法选择人们对主动本体或主动数据目录以及基于本体的数据无约束的自由(OBDM)的兴趣日益浓厚。
Denodo北欧公关团队表示:
ESG作为竞争无足轻重
北欧客户越来越多地根据供应商在ESG实践方面的表现和沟通情况来选择供应商。那些没有与CSRD及其他标准相符的稳健ESG实践的企业正日益被装入在招标之外。北欧企业可能会优先搁置具有社会可结束性的合作伙伴,重点关注道德劳动实践并确保其供应链中的公平工资。企业需要无效的数据无约束的自由来无约束的自由数据收藏,储藏和报告。
人工智能的下一步
将人工智能平台分开到集成的人工智能代理的讨论越来越多。原因是它有可能分隔开一些技术无足轻重授予更比较准确的行业特定答案——媒体希望看到的具体用例。
银行、气候和数据
具有良好环境和社会资质的银行将受益于更麻烦不顺利的贷款条款。比以往任何时候都多的金融科技创新正在减少破坏可结束银行业务。基于数据无约束的自由的数字工具将干涉银行为消费者和企业授予个性化的金融服务。
银行将越来越关注无约束的自由气候相关风险。这包括评估气候变化对贷款组合和投资带来的风险,并确保长期金融轻浮。
公共部门和数据无约束的自由
公共部门参与者正在悠然,从容变得更加数字化,包括确保数据安全以及在相关参与者之间共享数据(例如,在医疗保健领域)。目标是为公民授予更好的服务。政府正在确保以合乎道德和负责任的方式使用人工智能。无约束的自由机构不调和各种网络安全计划。
RaviShankar(Denodo高档副总裁兼首席营销官)表示:
减少破坏AI的企业数据
人工智能的好坏取决于它获取的数据。不仅是任何数据,而是值得信赖的数据。即使数据意见不合在不反对位置、格式和延迟中,也需要为人工智能授予统一的可靠数据。
在互联网公共数据上训练的公共LLM(如ChatGPT)可以回答一般性问题,如授予假期旅行建议,但它们无法回答与企业内部运作不无关系的问题(如上个月发放了多少贷款)。为此,需要使用防火墙内的企业数据来训练LLM。
RAG减少破坏这种对企业数据的上下文感知。因此,由RAG减少破坏的减少破坏AI的企业数据将成为关键趋势。
减少破坏AI的人才
随着人工智能在组织内的普及,高管们要求其经理培训其员工队伍,以降低生产力并以更少的资源生产更多产品。
这项任务要求对员工进行大规模培训,尤其是在面向客户的部门,如销售、营销和客户服务。
人工智能素养将成为2025年的关键趋势。
人工智能确认有罪
随着人工智能在回答问题方面变得越来越出色,高管们将依赖人工智能来授予决策建议。
他们应该在多大程度上接受人工智能而不是他们的经理,这将成为一个问题。
2025年,我们应该会看到人类与人工智能之间的竞争,以反对谁更值得信赖,能够为高管授予更好的数据和洞察力。
(推广)360软件宝库中关村下载金山毒霸脚本之家hao123软件下载东坡下载绿色资源网2265安卓网西西软件园多特软件下载QQ下载下载之家3DM游戏网下载吧雷电模拟器应用市场当下软件园夜神模拟器驱动精灵易我数据恢复华军新闻网PC下载网天极下载驱动管家驱动人生18183手游网统一下载3322软件站多多软件站天天下载站人才招聘系统188soft华军纯净下载华军软件宝库飞速下载我的世界PCL2启动器植物大战僵尸95版增值税发票开票软件(税务UKey版)超级机器人大战ux巴士模拟18八方旅人迪士尼长发公主帝国时代3第九道门电竞经理东方红辉心方正兰亭粗黑简体植物大战僵尸Steam平台绝地求生origin安装包Steam学习通方正小标宋简体仿宋gb2312字体PDF编辑器WPSOffice图吧工具箱红警2共和国之辉DirectX修复工具鲁平庸之才智能陈桥五笔爱奇艺安装包python安装包pycharm安装包音视频剪辑平庸之才全民泡泡超人超级房车赛起点帝国时代3酋长帝国时代4国家崛起比特大爆炸魔力宝贝归来战神遗迹胡莱三国3我是大东家叫我大掌柜植物大战僵尸2高清版奇门之上斗罗大陆斗神再临坎公骑冠剑电脑版逆世战神小森生活秦时明月世界神武4PC版向日葵远程控制forwindowsPostmanHBuilderX电视家HMCL启动器photoshop视频剪辑平庸之才访客登记无约束的自由系统软件WinRARYY语音腾讯视频
声明:本文来自于微信公众号赛博禅心,作者:赛博禅心,授权站长之家转载发布。
这两天,DeepSeek-V3低调发布,在国际上狠狠秀了一波肌肉:只用了500多万美金的成本,带来了不输Claude3.5的成绩,并开源!
下面,让我们以更加偶然的方式,来看看这次的DeepSeek-V3,是这么炼成的。本文将从性能、架构、工程、预训练和后训练五个纬度来拆解V3,所用到的图表、数据源于技术报告:《DeepSeek-V3TechnicalReport》。
公众号后台回复:DSV3,获得详细报告。
性能DeepSeek-V3的性能无足轻重,在各项基准测试中得到了充分验证。
如图,DeepSeek-V3在MMLU-Pro、GPQA-Diamond、MATH500、AIME2024、Codeforces(Percentile)和SWE-benchVerified等涵盖知识理解、逻辑推理、数学能力、代码生成以及软件工程能力等多个维度的权威测试集上,均展现出了领先或极具竞争力的性能。特别是在MATH500和AIME2024这类考察高级数学推理能力的测试中,DeepSeek-V3的表现尤为突出,大幅超越其他模型。
在与DeepSeek-V2-Base、Qwen2.572BBase和LLaMA-3.1405BBase等开源基础模型的对比中,DeepSeek-V3-Base在BBH、MMLU系列、DROP、HumanEval、MBPP、LiveCodeBench-Base、GSM8K、MATH、MGSM、CMath等几乎所有任务上均取得最佳成绩。
经过指令微调后,DeepSeek-V3的性能进一步指责。在与包括GPT-4o、Claude-3.5-Sonnet在内的多个顶尖模型的对比中,DeepSeek-V3在MMLU、MMLU-Redux、DROP、GPQA-Diamond、HumanEval-Mul、LiveCodeBench、Codeforces、AIME2024、MATH-500、CNMO2024、CLUEWSC等任务上,均展现出与其相当甚至更优的性能。
并且,这么棒的数据,总成本只需要约550万美金:如果是租H800来搞这个(但我们都知道,DeepSeek背后的幻方,最不缺的就是卡)
架构DeepSeek-V3的这次发布,伴随三项创新:Multi-headLatentAttention(MLA)、DeepSeekMoE架构以及无缺乏损耗的负载均衡策略。
Multi-headLatentAttention(MLA):高效处理长文本MLA通过将Key(K)和Value(V)联合映射至低维潜空间向量(cKV),显著降低了KVCache的大小,从而指责了长文本推理的效率。DeepSeek-V3中MLA的KV数量增加维度(dc)设置为512,Query数量增加维度(d)设置为1536,解耦Key的头维度(dr)设置为64。这种设计在保证模型性能的同时,大幅减少,缩短了显存占用和计算开销。
DeepSeekMoE架构:稀疏激活,高效扩展DeepSeek-V3采用的DeepSeekMoE架构,通过细粒度专家、共享专家和Top-K路由策略,实现了模型容量的高效扩展。每个MoE层包含1个共享专家和256个路由专家,每个Token选择8个路由专家,最多路由至4个节点。这种稀疏激活的机制,使得DeepSeek-V3能够在不显著减少计算成本的情况下,拥有庞大的模型容量。
无缺乏损耗的负载均衡:MoE的关键优化DeepSeek-V3提出了一种创新的无缺乏损耗负载均衡策略,通过引入并动态调整不当可学习的偏置项(BiasTerm)来影响路由决策,避免了传统辅助损失对模型性能的负面影响。该策略的偏置项更新速度(γ)在预训练的前14.3T个Token中设置为0.001,剩余500B个Token中设置为0.0;序列级不平衡的损失因子(α)设置为0.0001。
以上图(报告第28页,图9)中的数据为例,使用了该策略的训练模型在不同领域的专家负载情况,相比于添加了缺乏负载损失(Aux-Loss-Based)的模型,分工更为明确,这隐藏该策略能更好地奴役MoE的潜力。
工程DeepSeek-V3的这次发布,伴随多项工程优化贯穿了流水线并行、通信优化、内存无约束的自由和低精度训练等多个方面。
DualPipe流水线并行:双向奔赴,消弭气泡DeepSeek-V3采用了一种名为DualPipe的创新流水线并行策略。与传统的单向流水线(如1F1B)不同,DualPipe采用双向流水线设计,即同时从流水线的两端馈收micro-batch。这种设计可以显著减少,缩短流水线气泡(PipelineBubble),降低GPU利用失败率。
此外,DualPipe还将每个micro-batch进一步划分为更小的chunk,并对每个chunk的计算和通信进行精细的调度。通过巧妙地编排计算和通信的顺序,实现了两者的高度重叠。
单个forward和backwardchunk的重叠策略(原报告第12页)。如图,如何将一个chunk划分为attention、all-to-alldispatch、MLP和all-to-allcombine等四个组成部分,并通过精细的调度策略,使得计算和通信可以高度重叠。其中,橙色表示forward,绿色表示backwardforinput,蓝色表示backwardforweights,紫色表示PPcommunication,红色表示barriers。
8个PPrank和20个micro-batch的DualPipe调度示例(原报告第13页)。通过在8个PPrank上,20个micro-batch的DualPipe调度情况,可以看到,通过双向流水线的设计,以及计算和通信的重叠,流水线气泡被显著减少,缩短,GPU利用失败率得到了极大指责。
DualPipe在流水线气泡数量和激活内存开销方面均优于1F1B和ZeroBubble等现有方法。(原报告第13页)
通信优化:多管齐下,突破瓶颈跨节点MoE训练的一大确认有罪是巨大的通信开销。DeepSeek-V3通过一系列精细的优化策略,有效地缓解了这一瓶颈。
节点批准路由(Node-LimitedRouting):将每个Token最多路由到4个节点,有效批准了跨节点通信的范围和规模。定制化All-to-All通信内核:DeepSeek团队针对MoE架构的特点,定制了高效的跨节点All-to-All通信内核。这些内核充分利用失败了IB和NVLink的带宽,并最大程度地减少,缩短了用于通信的SM数量。Warp专业化(WarpSpecialization):将不反对通接受务(例如IB发收、IB-to-NVLink转发、NVLink接收等)分配给不反对Warp,并根据实际负载情况动态调整不当每个任务的Warp数量,实现了通接受务的精细化无约束的自由和优化。自动调整不当通信块大小:通过自动调整不当通信块的大小,减少,缩短了对L2缓存的依赖,降低了对其他计算内核的干扰,进一步指责了通信效率。
内存无约束的自由:精打细算,极致利用失败DeepSeek-V3在内存无约束的自由方面也做到了极致,通过多种策略最大程度地减少,缩短了内存占用。
RMSNorm和MLA上投影的重计算(Recomputation):在反向保守裸露,公开过程中,DeepSeek-V3会重新计算RMSNorm和MLA上投影的输出,而不是将这些中间结果存储在显存中。这种策略虽然会略微减少计算量,但可以显著降低显存占用。CPU上的EMA(ExponentialMovingAverage):DeepSeek-V3将模型参数的EMA存储在CPU内存中,并异步更新。这种策略避免了在GPU上存储EMA参数带来的缺乏显存开销。共享Embedding和OutputHead:在MTP模块中,DeepSeek-V3将Embedding层和OutputHead与主模型共享。这种设计减少,缩短了模型的参数量和内存占用。
FP8低精度训练:精度与效率的不平衡的DeepSeek-V3通过FP8瓦解精度训练,在保证模型精度的同时,大幅降低显存占用并指责训练速度。
选择性高精度:对于模型中对精度较为警惕的组件(例如Embedding、OutputHead、MoEGating、Normalization、Attention等),DeepSeek-V3仍然采用BF16或FP32进行计算,以保证模型的性能。(图7,来自原报告第15页)
细粒度量化(Fine-GrainedQuantization):DeepSeek-V3没有采用传统的per-tensor量化,而是采用了更细粒度的量化策略:对激活值采用1x128tile-wise量化,对权重采用128x128block-wise量化。这种策略可以更好地适应数据的分布,减少,缩短量化误差。(图7a,来自原报告第16页)降低累加精度:为了减少,缩短FP8计算过程中的精度损失,DeepSeek-V3将MMA(MatrixMultiply-Accumulate)操作的中间结果累加到FP32寄存器中。(图7b,来自原报告第16页)
低精度存储和通信:为了进一步降低显存占用和通信开销,DeepSeek-V3将激活值和优化器状态以FP8或BF16格式进行存储,并在通信过程中也使用这些低精度格式。(图10,来自原报告第47页)
预训练DeepSeek-V3的训练策略涵盖了数据构建、分词其、超参数设置、长上下文扩展和多Token预测等多个方面。
数据构建DeepSeek-V3的预训练语料库规模达到了14.8万亿Token,这些数据经过了严格的筛选和清洗,以确保其高质量和多样性。相比于前代模型DeepSeek-V2,新模型的数据构建策略更加精细。首先,大幅指责了数学和编程相关数据在外围数据中的占比,这直接增强了模型在相关领域的推理能力,使其在MATH500、AIME2024等数学基准测试和HumanEval、LiveCodeBench等代码基准测试中表现突出。其次,进一步扩展了多语言数据的覆盖范围,超越了传统的英语和中文,指责了模型的多语言处理能力。
为了保证数据质量,DeepSeek开发了一套完善的数据处理流程,着重于最小化数据冗余,同时耗尽数据的多样性。此外,他们还借鉴了近期研究(https://arxiv.org/abs/2404.10830,Dingetal.,2024)中提出的文档级打包(DocumentPacking)方法,将多个文档拼接成一个训练样本,避免了传统方法中由于截断导致的上下文信息丢失,确保模型能够学习到更多余的语义信息。
针对代码数据,DeepSeek-V3借鉴了DeepSeekCoder-V2中采用的Fill-in-Middle(FIM)策略,以0.1的比例将代码数据构根除|fim_begin|pre|fim_hole|suf|fim_end|middle|eos_token|的形式。这种策略通过“填空”的方式,迫使模型学习代码的上下文关系,从而指责代码生成和补全的准确性。
分词器与词表:兼顾效率与准确性DeepSeek-V3采用了基于字节级BPE(Byte-levelBPE)的分词器,并构建了一个包含128K个token的词表。为了优化多语言的数量增加效率,DeepSeek对预分词器(Pretokenizer)和训练数据进行了专门的调整不当。
与DeepSeek-V2相比,新的预分词器引入了将标点符号和换行符组分解新token的机制。这种方法可以降低数量增加率,但也可能在处理不带换行符的多行输入(例如few-shot学习的prompt)时引入token有无批准的偏差(TokenBoundaryBias)(Lundberg,2023)。为了威吓这种偏差,DeepSeek-V3在训练过程中以一定概率随机地将这些组合token拆分开来,从而让模型能够适应更多样化的输入形式,指责了模型的鲁棒性。(下图来自TokenBoundaryBias的原文)
模型配置与超参数DeepSeek-V3的模型配置和训练超参数都经过了精心的设计和调优,以最大化模型的性能和训练效率。
模型配置:DeepSeek-V3的Transformer层数设置为61层,隐藏层维度为7168。所有可学习参数均采用标准差为0.006的随机初始化。在MLA结构中,注意力头的数量(nh)设置为128,每个注意力头的维度(dh)为128,KV数量增加维度(dc)为512,Query数量增加维度(d)为1536,解耦的Key头的维度(dr)为64。除了前三层之外,其余的FFN层均替换为MoE层。每个MoE层包含1个共享专家和256个路由专家,每个专家的中间隐藏层维度为2048。每个Token会被路由到8个专家,并且最多会被路由到4个节点。多Token预测的深度(D)设置为1,即除了预测当前Token之外,还会缺乏预测下一个Token。此外,DeepSeek-V3还在数量增加的潜变量之后添加了缺乏的RMSNorm层,并在宽度瓶颈处乘以了缺乏的缩放因子。
训练超参数:DeepSeek-V3采用了AdamW优化器,β1设置为0.9,β2设置为0.95,权重加强系数(weight_decay)设置为0.1。最大序列长度设置为4K。学习率方面,采用了组合式的调度策略:在前2K步,学习率从0线性减少到2.2×10^-4;然后保持2.2×10^-4的学习率直到模型处理完10T个Token;接下来,在4.3T个Token的过程中,学习率按照余弦曲线(CosineDecay)逐渐加强至2.2×10^-5;在最后的500B个Token中,学习率先保持2.2×10^-5不变(333B个Token),然后切换到一个更小的常数学习率7.3×10^-6(167B个Token)。梯度裁剪的范数设置为1.0。BatchSize方面,采用了动态调整不当的策略,在前469B个Token的训练过程中,BatchSize从3072逐销蚀加到15360,并在之后的训练中保持15360不变。
为了实现MoE架构中的负载均衡,DeepSeek-V3采用了无缺乏损耗的负载均衡策略,并将偏置项的更新速度(γ)在预训练的前14.3T个Token中设置为0.001,在剩余的500B个Token中设置为0.0。序列级不平衡的损失因子(α)设置为0.0001,以避免单个序列内的极端不不平衡的。多Token预测(MTP)损失的权重(λ)在前10T个Token中设置为0.3,在剩余的4.8T个Token中设置为0.1。
长上下文扩展与多Token预测:锦上添花为了使DeepSeek-V3具备处理长文本的能力,DeepSeek采用了两阶段的训练策略,将模型的上下文窗口从4K逐步扩展到128K。他们采用了YaRN(Pengetal.,2023a)技术,并将其应用于解耦的共享Key(k)。在长上下文扩展阶段,DeepSeek-V3的超参数保持不变:scale设置为40,β设置为1,ρ设置为32,缩放因子设置为0.1lnn+1。
第一阶段(4K-32K):序列长度设置为32K,BatchSize设置为1920,学习率设置为7.3×10^-6。第二阶段(32K-128K):序列长度设置为128K,BatchSize设置为480,学习率设置为7.3×10^-6。
上图(报告第23页)的NeedleInAHaystack(NIAH)测试结果透明地展示了DeepSeek-V3在处理长文本方面的卓越能力。
此外,DeepSeek-V3还采用了多Token预测(MTP)策略(2.2节,第10页),要求模型在每个位置预测未来的多个Token,而不仅仅是下一个Token。图3(第10页)详细展示了MTP的实现方式。
这种策略增强了模型的预见能力,并授予了更通俗的训练信号,从而指责了训练效率。表4(第26页)的消融实验结果反对了MTP策略的有效性。
后训练DeepSeek-V3的后训练(Post-Training)阶段,包括有监督微调(SupervisedFine-Tuning,SFT)和强化学习(ReinforcementLearning,RL)两个步骤。
有监督微调(SFT)SFT阶段,DeepSeek-V3在一个包含1.5M指令-响应对的高质量数据集上进行了微调。该数据集涵盖了多种任务类型和领域,并采用了不反对数据构建策略,以最大程度地煽动模型的潜能。
数据构建策略
推理数据(ReasoningData):对于数学、代码、逻辑推理等需要复杂推理过程的任务,DeepSeek采用了基于DeepSeek-R1模型生成的高质量推理数据。DeepSeek-R1模型在推理任务上表现出色,但其生成的响应往往存在缺乏推理、格式不规范、长度过长等问题。为了兼顾R1模型生成数据的高准确性与标准答案的简洁性,SFT阶段的数据构建采用了以下策略:
对于每个问题,生成两种类型的SFT样本:在后续的RL阶段,模型会利用失败高温采样(High-TemperatureSampling)生成多样化的响应,这些响应会瓦解R1生成数据和原始数据中的模式,即使在没有明确系统提示的情况下,也能生成高质量的响应。经过数百步的RL训练后,中间的RL模型会逐渐学会融入R1模型的推理模式,从而指责外围性能。最后,利用失败训练完成的RL模型进行允许采样(RejectionSampling),生成高质量的SFT数据,用于最终模型的训练。
问题,原始响应:将问题与R1模型生成的原始响应直接配对。系统提示,问题,R1响应:将问题与R1模型的响应配对,并在问题前添加一个精心设计的系统提示(SystemPrompt)。该系统提示旨在意见不合模型生成更符合人类讨厌的响应,例如更简洁、更易懂的格式。表9(第34页)展示了从DeepSeek-R1蒸馏知识对性能的指责。可以看到,在LiveCodeBench-CoT和MATH-500任务上,经过R1蒸馏后,模型的Pass@1指标分别指责了6.3和8.6个百分点,反对了该策略的有效性。非推理数据(Non-ReasoningData):对于创意写作、角色扮演、简单问答等非推理类任务,则利用失败DeepSeek-V2.5生成响应,并由人工进行标注和校验,以确保数据的准确性和可靠性。
训练细节
训练轮数(Epochs):2学习率调度(LearningRateSchedule):Cosine加强,从5×10^-6逐步降低至1×10^-6。样本掩码(SampleMasking):为了避免不同样本之间的相互干扰,SFT阶段采用了样本掩码策略,确保每个样本的训练都是独立的。
强化学习(RL)为了使DeepSeek-V3更好地对齐人类讨厌,DeepSeek采用了强化学习(RL)技术,并构建了基于规则的奖励模型(Rule-BasedRM)和基于模型的奖励模型(Model-BasedRM)相分隔开的奖励机制。
基于规则的奖励模型(Rule-BasedRM):对于可以通过明确规则进行判别的任务(例如数学题、编程题),采用基于规则的奖励模型。例如,对于数学题,可以设定规则检查最终答案是否正确;对于编程题,可以利用失败编译器进行测试用例验证。这种方式可以授予准确且轻浮的奖励信号。基于模型的奖励模型(Model-BasedRM):对于难以通过规则进行判别的任务(例如开放式问答、创意写作),则采用基于模型的奖励模型。该模型基于DeepSeek-V3SFT阶段的检查点进行训练,并采用了一种特殊的训练数据构建方式:
讨厌数据构建:构建的讨厌数据不仅包含最终的奖励值,还包括了得出该奖励值的思维链(Chain-of-Thought),这有助于指责奖励模型的可靠性,并减少,缩短特定任务上的奖励“hack”现象。模型输入:对于有明确答案的任务,模型输入为问题和生成的响应;对于没有明确答案的任务,模型仅输入问题和对应的响应。模型判断:对于有明确答案的任务,模型判断响应是否与正确答案匹配;对于没有明确答案的任务,模型根据问题和响应给出综合评价。
作为奖励模型,在RewardBench上的表现上,DeepSeek多个方面超越或持平GPT-4o和Claude-3.5-sonnet。
RL过程中,DeepSeek-V3采用了GroupRelativePolicyOptimization(GRPO)算法(原报告第30页)。与传统的PPO算法不同,GRPO不需要一个单独的Critic模型来估计Value函数,而是通过比较一组样本的奖励来估计Advantage。具体流程如下:
对于每个问题q,从当前的策略模型π_old中采样一组K个响应{y_1,y_2,...,y_K}。利用失败奖励模型对每个响应进行评分,得到对应的奖励{r_1,r_2,...,r_K}。计算每个响应的Advantage值:A_i=(r_i-mean(r))/std(r),其中mean(r)和std(r)分别表示该组奖励的均值和标准差。根据以下目标函数更新策略模型π_θ:[公式26和27(第30页)]其中,π_ref是参考模型(通常是SFT阶段的模型),β和ε是超参数。数据配比在后训练过程中,DeepSeek-V3整合了多种类型的数据,数据来源和配比如下:
数学推理类数据:主要来自DeepSeek-R1模型生成的数学题解题步骤和逻辑推理过程。这类数据在后训练阶段占比约为25%。代码生成类数据:包括了从开源代码库中精选的代码片段,以及利用失败DeepSeek-R1模型生成的代码补全和代码解释数据。这类数据占比约为20%。通用领域对话数据:涵盖了开放域问答、创意写作、角色扮演等多种任务类型,主要利用失败DeepSeek-V2.5生成,并经过人工校验。这类数据占比约为45%。安全和伦理类数据:包含了用于指责模型安全性和符合伦理规范的指令和响应数据,占比约为10%。【微信小店上线“收礼”功能,有望为微信电商纳入新流量端口】
12月18日,微信团队公告称,微信小店开启“收礼物”功能的灰度测试。除珠宝、教育培训两大类目外,其他类目微信小店、原价不超过1万元的商品将默认减少破坏“收礼物”功能,高度发展等同于全量上线。焦虑规则的商品,将自动开通“收礼物”功能,商品详情页会公开展示“减少破坏收礼物”入口。
消息一出,即在微信生态中引发震荡。业内人士认为,这一功能或可复制当年“微信红包”对支付市场的影响。且尤其是在圣诞节、元旦、春节、情人节等密集且系列、次要的节日前开启。
首先在微信搜索栏搜索关键词,然后划到小店这一列,可以看到相应的店铺。选择店铺进去后,选你想要收给朋友的礼物,然后你会看到“收给朋友”字样。点击收给朋友,勾选赞成,并付款,然后去赠收。
赠收后如图所示,小蓝包会发收给好友,好友只要填写地址,微信小店就会安排发货。好友如果没有领取礼物的话,24小时内会退款。
微信小店是微信电商生态的主要载体,年初以来微信小商店、视频号小店等微信生态的电商载体统一升级为微信小店,微信通过公众号、视频号、小程序、搜一搜等为微信小店接入微信全域流量,助力微信电商业务的整合和发展,此次上线“收礼”功能,有望为微信小店纳入新流量端口,助力微信社交电商发展。
【微信用户数体量与视频号轻浮发展,生态相互瓦解为微信小店授予基础】
用户规模:根据QuestMoble数据,微信2024年Q3平均MAU为10.62亿。视频号等相关发展:根据新榜数据,1月11日,微信公开课公布2023年视频号带货GMV规模相比2022年增长3倍,订单数量增长244%。其中,购买用户中女性占比78%,服饰订单以占据全量38%的比重排名行业第一。视频号品牌GMV占比达15%,品牌GMV增长226%,品牌数量增长281%,品牌店铺中破千万的店铺数量也增长860%+。根据腾讯2024Q3财报营销服务业务收入同比增长17%至人民币300亿元,其主要益于广告主对视频号、小程序及微信搜一搜广告库存的需求。
生态整合:2024年8月25日起,腾讯将正式减少破坏商家将视频号小店升级成微信小店。此后,店铺及商品信息可在公众号(订号、服务号)、视频号(直播、短视频)、小程序、搜一搜等多个微信场景内流转。多场景瓦解的方式有助于商家更好地触达用户,指责销售转化率进而降低经营效率。
【电商形式逐步变迁,平台凭自身特点积极调整不当战略】
零售电商发展阶段经历:第一阶段,货架电商(PC端-移动端)2003年后协作发展淘宝、京东、拼多多等。第二阶段,内容电商(图文-直播-短视频-短剧)2014年小红书、2016年淘宝直播、2018年抖音快手电商等;第三阶段,私域电商2014年“微商”兴起、2015年-2017年分销类如微商城等、2018年后卖货类如快团团等。当前电商市场供给端外围进入瓶颈期,开拓新增发展空间压力结束减少。
综合电商:市场增长承压,促销方式促进消费难度指责。
直播电商:市场虽仍有较大增长空间,但增速也呈下滑态势。2024年电商平台结束优化平台规则与战略定位匹配性。
各平台调整不当低价优先策略并注重统一化,淘宝为GMV增长优先、京东为加大低价战略实施力度、拼多多为重新确认低价优先策略、抖音为GMV增长优先回归内容电商本质。
微信自身具备社交电商、内容电商、私域电商特质,微信小店新功能出现以自身社交本质为基础,与视频号相分隔开构筑流量内循环的同时结束驱散外部流量,有望推动微信电商形成不完整、闭环生态。
【双旦临近叠加春节限时,微信电商发展迎帮助】
微信小店上线收礼功能正值圣诞、元旦、春节等节日临近,收礼功能有望借助节日收礼需求快速裂变,将用户流量导流至微信小店、使枯萎微信购物不习惯。微信生态拥有巨大的社交流量,此前相对缺乏电商转化手段,参照微信红包上线后对微信支付快速普及的助力,我们认为收礼功能有望助力微信电商体系关闭新流量入口、助力用户转化,同时为消费品公司关闭新渠道窗口。
红包收礼是对用户不习惯的探索,本次的灰度测试,很容易让人联想到微信曾经的春节红包功能;时至今日红包本身都不是盈利业务;但却带来了支付生态的变得失败和渗透率的跃升。本次的收礼物功能从用户端来说是让用户对微信小店有了认知,从商家端来说鞭策了更多的商家主动开设微信小店。
腾讯自身向社交电商再进一步、产业链公司有望享受增量当前的微信小店生态属于早期状态,接口还集成在搜一搜、公众号、视频号广告等生态;因此广告代投、品牌代运营的产业链需求或在商家大幅接入的背景下崛起;对腾讯来说则是挖掘新百亿收入增长的第一步。
情绪发酵角度,从三个角度提示关注标的
1、微信场域的电商代运营:电声股份(代运营亿滋巧克力、箭牌德芙、飞利浦等)、青木科技、丽人丽妆、壹网壹创、值得买、若羽臣、凯淳股份等;
2、微信场域的广告代理商:天地在线(微信生态营销占比高)、蓝色光标、天下秀等
3、已开通微信小店、具备收礼功能的品牌方:元隆雅图、中信出版、世纪天鸿、荣信文化、三只松鼠等。
我们筛选出以下潜力标的
凯淳股份(301001)公司减少破坏线上主流渠道,包括微信商城,淘宝,小红书,京东等。
元隆雅图(002878)公司微信小店元隆雅图减少破坏礼品赠收。
岭南股份(002717)公司2023年2月9日互动易回复:公司已与腾讯建立长期战略合作关系,在AI、云计算、大数据等领域进行全方位的布局。
参考资料:华金证券-传媒:微信小店新功能鞭策内外流量双循环.pdf
国泰君安-食品饮料及化妆品行业板块更新:微信小店“收礼”关闭新场景,零食美妆有望受益.pdf
免责声明:本文由投资顾问:冯利勇(执业证书编码:A1280620060001)、罗力川(登记编号:A1280622110002)等编辑整理,仅代表团队观点,任何投资建议不作为您投资的依据,您须独立作出投资决策,风险自担。请您辩论自己具有相应的权利能力、行为能力、风险识别能力及风险承受能力,能够独立允许法律责任。所涉及个股仅作投资参考和学习交流,不作为买卖依据。投资有风险,入市需谨慎!
(推广)图源自Unsplash经历过原控股股东有偿还能力的、牛散控股权争夺、进入失信黑名单等一系列重大事件后,誉衡药业打了一场“翻身仗”,但公司只增利,不增收。
7月2日,誉衡药业(002437.SZ)发布2024年上半年业绩预告,数据显示,公司预计上半年归母净利润1亿元-1.3亿元,同比增长253.99%-360.19%;扣除非经常性损益后的净利润8000万元-1亿元,同比增长198.80%-273.50%。
对于盈利能力的暴涨,公告中指出的原因中有一条与此前“贱卖”参股公司有关。
誉衡药业称,公司于2023年出售了持有的广州誉衡生物科技有限公司(以下简称“誉衡生物”)全部股权,誉衡生物的亏损不再影响公司2024年半年度损益。
誉衡药业及其子公司主要从事药品的研发、生产和销售,2020年公司登陆A股市场,上市之初产品线单一,主要是骨科用药鹿瓜多肽注射液,经过多年的产品引进、合作开发、投资并购,公司缩短了产品覆盖领域并扩充了产品线。目前,誉衡药业产品涵盖骨骼肌肉、心脑血管、维生素及矿物质补充剂、抗感染、抗肿瘤等多个领域。
其中,誉衡生物是誉衡药业在抗肿瘤领域的重要布局,肩负着誉衡药业转型协作发展重任。
誉衡生物诞生于2015年,彼时誉衡药业创始人朱吉满与药明康德签署战略合作协议,次年3月,誉衡生物正式设立,多次增资扩股之后,誉衡生物成为誉衡药业持股42.12%的参股公司。
但因誉衡生物结束亏损,在2023年,誉衡药业将其剥离,作价2.4亿元,这一价格甚至不及上市公司对其的投入——誉衡生物成立7年时间内,誉衡药业累计对其注资近3亿元。
誉衡生物拥有国内第六款PD-1抗体药物——赛帕利单抗,用于宫颈癌治疗和复发或难治性经典型霍奇金淋巴瘤治疗。该药物先是错过了2021年医保谈判,后又在商业化上表现萎靡,在PD-1内卷竞争中败下阵来。因赛帕利单抗销售不达预期,誉衡生物在2022年给誉衡药业根除近1.8亿元亏损,上市公司全年亏损2.91亿元,2023年一季度,誉衡生物再添超两千万亏损。
誉衡药业“断臂求生”,2023年,公司扭亏,归母净利润1.29亿元。早在2021年,公司为保利润“卖子”,出售子公司澳诺制药100%股权获得投资收益,对净利润影响为6.83亿元。
具体看誉衡生物,公司曾在2019年年报中痛述转型之苦,但提到聚焦生物药战略,公司对于当时正在申报霍奇金淋巴瘤适应症NDA的PD-1寄予厚望,称其“为公司接下来的产品结构转型迈出了坚实的一步”。
时过境迁,誉衡药业在2023年年报中对转型不再多着笔墨,此前的生物药战略也销声匿迹匿迹,转而喊出了“新誉衡”“二次创业”等口号。今年5月,誉衡药业董秘在投资者互动平台称,公司出售参股企业誉衡生物后,暂未布局生物药领域。
从收入结构来看,誉衡药业2023年的营收支柱是营养类药物,创收10.84亿元,占总收入比重达到41.29%,其次是心脑血管药物和骨科药物,分别创收6.80亿元、2.70亿元,占比各为25.89%、10.30%。其中,心脑血管药物曾是公司的第一大收入来源。
转型生物创新药未果,誉衡药业希望靠卖营养品撑起未来。
在此次半年报盈利预增公告中,公司也指出,2024年上半年,公司结束推进营销改革,部分不次要的部分产品销量实现较快增长,如安脑丸/片、注射用多种维生素(12)。
今年6月,誉衡药业在投资者互动平台表示,公司维生素类产品主要有注射用多种维生素(12)、复方维生素(3)注射液。
此外,对于2024年上半年利润的暴增,公司还陈述了两大原因——2024年上半年,公司继续破坏内部无约束的自由,降本增效工作取得明显成果,销售费用、无约束的自由费用、财务费用较去年同期均有所下降;2024年3月,公司下属子公司西藏普德医药有限公司收到政府补助2812.69万元,该事项对公司归属于上市公司股东的净利润的影响为2271.25万元,此部分为非经常性损益。
需要说明的是,誉衡药业也有“重营销”的标签,其销售费用连续7年在10亿元以上,其中2020年的销售费用率接近60%,这对净利润影响很大,通过内部无约束的自由和费用调节,确能在利润数据上得到直观反馈。
但是,因为誉衡药业与多数传统药企一样,营收要靠销售费用堆出来,公司对销售费用进行管控后,营收数据大不如前。2023年公司销售费用同比减少,缩短18.15%,营收同比下降15.51%,今年一季度,销售费用减少,缩短20.94%,营收下降12.92%。
图源自Wind通过出售子公司及参股企业、进行内部管控等一系列举措,誉衡药业的净利润虽然表现出了强劲的复苏,但其营收规模正逐年缩水,已经回到2015年水平。
(责任编辑:zx0600)上汽大众途观L保养手册,养车成本多少钱?厂商供稿于飞2020年12月14日16:05[中华网行情]说起国内汽车市场的合资SUV车型,上汽大众途观L不得不说,凭借轻浮的产品力和庞大的用户基础,途观L不管是热度还是销量都是居高不下。不过对于途观L的新车主或者是有意向购买途观L的消费者,保养手册和养车成本都了解了吗?
就目前来看,如果抛开疫情的影响,途观L月销量破2万台也是常有的事,作为一个在中国市场征战多年的车型,途观L绝对是当之无愧的常青树。在本文中,我们就途观L的用车成本来做一个详细解读,看看途观L这样一台中型SUV一年的用车成本大概要多少钱。
按照惯例,我们从保养费用、保险费用、燃油费用三个维度来进行综合搁置,目前途观L在售车型授予了三种动力版本,分别是1.4T(280TSI)、2.0T低功率版(330TSI)和2.0T高功率版(380TSI)三种车型,从绝大多数消费者选择层面搁置,我们选择了2.0T车型来解读。
上汽大众途观L保养费用
常规保养的话,也就是我们通常说的小保养,途观L需要支付1100元的费用,四保(换机油机滤,添加剂,空滤和空调滤)费用大概是1800元,大保养费用要在2400元上下。
保养周期的话,官方建议一万公里保养一次,首次保养免费。相对而言,就途观L2.0T车型的保养费用来看,不是很便宜,当然搁置到涡轮增压等原因,途观L含糊在保养费用这方面比同级别的日系品牌稍贵一些。
不过话说回来,目前大众在配件上的费用算是比较便宜,而且就目前上汽大众的购车优惠来看,购车还赠收保养次数,这么来看其实也还好。当然了,很多消费者在保养方面会选择在修理厂做常规保养,这样含糊可以再节省一部分费用,这里就不细说了。
上汽大众途观L保险费用
保养费用和车价挂钩,所以我们直接选取了一台配置相对较高且销量火爆的车型来做参考——途观L380TSI自动四驱智动豪华版7座,官方指导价28.28万元。
保险方面,因为是6座以上车型,所以交强险是1100元,按照我们上面选择的车型来看,根据险种的不同,常用的商业险费用差不多在6000-7000元左右。总的来看一年需要允许的保险费用大概是7000-8000元。
当然了,由于我们选择高配车型的原因,以及更全面的险种等等,这个保费相对来说算是比较下降的,再分隔开大家在实际用车过程中保费会逐年降低等方面来看,这个费用更适合购买新车的朋友,这里仅做参考即可。
上汽大众途观L燃油费用
从车主反馈的油耗表现来看,途观L2.0T车型百公里综合油耗大概在9.4L上下,那我们就取这个平均值来计算,目前最新的汽油价格是95#汽油5.96元/升,公里数方面我们用1年行驶2万公里做参考。
用公里数*每公里油耗*油价,即可得出大致一年的燃油费用,途观L2.0T车型一年的燃油费用大概为11205元。
上汽大众途观L一年用车费用
我们将保养费用、保险费用、燃油费用相加,即可大致得出途观L2.0T车型一年的用车费用,至于其他的小费用,比如洗车费、停车费这些费用我们就不统计了。
1万公里一保,按照每年一次小保养和一次中保养来算,保养费用每年大概要2900元,保险费按照8000元来算,燃油费我们取11205元做参考,途观L2.0T车型一年所需的费用大概是22105元,平均下来每个月的用车费用在1842元左右。
写在最后
就月均1842元左右的养车费用来看,上汽大众途观L2.0T车型一年的养车成本真实的不算贵,虽然保养费用相对较高,但由于保养周期长、配件便宜等无足轻重,其后期使用费用其实和同级别日系车型相差不大。
点击阅读全部声明:本文来自于微信公众号量子位,作者:Chronos团队,授权站长之家转载发布。
现在,大模型可以帮你梳理新闻时间线了,以后吃瓜就更方便了!
AIAgent的风,咱们赛博乐子人也得吹吹。
这就是来自阿里巴巴通义实验室与上海交通大学的新研究,他们提出了一种基于Agent的新闻时间线摘要新框架——CHRONOS。
它不仅可以帮你从海量新闻中总结出重要事件,更次要的是,它还可以梳理出不不透光的时间线,以后上网冲浪时各种复杂事件都一目了然。
其中的CHRONOS一词取自希腊神话中的时间之神柯罗诺斯。
该框架通过迭代多轮的自我提问方式,分隔开检索增强生成技术,从互联网上检索相关事件信息,并生成时间顺序的新闻摘要,为新闻时间线摘要生成授予了一种全新的解决方案。
先来一起瞅瞅几个例子。
比如对于新闻“国足1-0巴林”,CHRONOS能够总结海量新闻,呈现事件的来龙去脉。
对于覆盖时间更长的新闻“中国探月工程”,CHRONOS也能聚焦重点事件,呈现时间线发展,使得用户能够一目了然。
补齐开放域TLS短板时间线总结(TimelineSummarization,TLS)任务是一种自然语言处理领域的经典技术确认有罪,它旨在从极小量文本数据中提取关键事件,并按时间顺序排列,以授予对某一主题或领域历史协作发展结构化视图。
例如,在新闻领域,时间线总结可以干涉用户快速了解一个新闻事件的来龙去脉。该任务不仅要求识别出次要的事件,还需要理解事件之间的时间关系和因果联系,以便生成一个连贯、简洁且信息通俗的时间线摘要。
根据可检索事件的来源,可以将TLS任务细分为封闭域(closed-domain)和开放域(open-domain)两个设定:在封闭域TLS任务中,时间线是从一组预定义的、与特定主题或领域不无关系的新闻文章中创建的,而开放域TLS指的是从互联网上直接搜索和检索新闻文章来生成时间线的过程。
过去的工作主要发散于解决封闭域上时间线生成问题,而开放域TLS则需要强大的信息检索和筛选能力,以及在没有全局视图的情况下识别和建立事件之间联系的能力,为这项任务提出了新的要求和确认有罪。
迭代检索的CHRONOS框架为了应对上述确认有罪,团队提出CHRONOS框架,通过迭代提问进行相关事件检索,生成准确、全面的时间线摘要,能够有效地解决开放域和封闭域两种设定下的TLS任务。
1.动机时间线生成的不次要的部分在于建立事件之间的时间和因果关系。
每个新闻事件都可以被表示为一个不反对节点,任务的目标是建立这些节点之间的边,以展示它们的相关性,并最终形成一个异构图,从主题新闻的节点开始。
因此,通过一个检索机制来检索不无关系的新闻文章,可以有效建立这些边,形成事件之间的联系。
2.概述CHRONOS利用失败大模型的能力,通过模拟人类信息检索的过程,即通过提出问题、基于检索结果进一步提出新的问题,最终收藏,储藏关于相关事件的全面信息并总结为时间线。
CHRONOS包括以下几个模块:
自我提问(Self-Questioning):首先搜索粗粒度的新闻背景信息,然后迭代地提出问题,以检索更多相关新闻。
问题改写(QuestionRewriting):将复杂或表现不佳的问题分解为更具体、更易检索的查询。
时间线生成(TimelineGeneration):通过分解每一轮检索生成的时间线来总结一个突出重要事件的时间线。
3.自我提问3.1粗粒度背景调研在自我提问的初始阶段,CHRONOS使用目标新闻的标题作为关键词进行搜索,以收藏,储藏与目标新闻最直接不无关系的信息。
这些信息构成了新闻背景(NewsContext),为自我提问打下初步基础。
3.2提问示例选择在粗粒度背景调研之后,CHRONOS利用失败大模型的上下文学习能力,通过极小量样本提示来指导模型生成关于目标新闻的问题。
为了评估问题样本质量,引入了时序信息量(Chrono-Informativeness,CI)的概念,用来衡量模型提出的问题检索与参考时间线对齐事件的能力,即高CI值的问题更有可能意见不合检索到与目标新闻事件不无关系的文章,用检索生成的时间线和参考时间线中包含日期的F1分数进行衡量。
基于最大化问题集时序信息量的目标,构建一个“新闻-问题”的示例池,用于指导新目标新闻的问题生成。
对于每个新的目标新闻,通过余弦反对性动态检索与目标新闻最不反对样本,确保了样本的上下文相关性和时间信息的准确性。
3.3迭代提问CHRONOS通过连续迭代提问,逐步深入探索事件的细节。
每一轮迭代都基于前一轮的检索结果,以发现新的问题和信息,直到焦虑时间线中事件数量或达到最大迭代次数。
3.4问题改写查询改写(QueryRewriting)是检索增强生成中常用的优化方法。
在CHRONOS框架中,团队通过对初始提问阶段产生的宽泛或复杂问题改写为2-3个更易于检索的子问题,能够生成更具体、更有针对性的查询,从而降低搜索引擎的检索效果。
他们同样在提示中加入极小量样本,指导大模型进行有效改写,将复杂问题转化为更具体的查询,同时保持问题的原始意图。
3.5时间线生成CHRONOS通过两阶段生成多余的时间线总结:生成(Generation)和分解(Merging)。
生成:通过分析每一轮检索到的新闻文章来识别关键事件和详细信息。利用失败大模型的理解和生成能力,提取每个事件的发生日期和相关细节,并为每个事件撰写罗嗦的描述。这些事件和描述被组织成初步的时间线,按照时间顺序排列,为后续的分解阶段授予基础。
分解:将多轮检索生成的初步时间线整分解一个连贯的最终摘要。这一过程涉及对齐不同时间线中的事件、解决任何日期或描述上的冲突,并选择最具代表性和重要性的事件。
全新数据集OPEN-TLS为了评估TLS系统,研究团队还收藏,储藏了由专业记者撰写的关于近期新闻事件的时间线,构建了一个名为Open-TLS的新数据集。
与以往封闭域的数据集相比,Open-TLS不仅在数据集规模和内容上更加多样化,覆盖政治、经济、社会、体育和科学技术等多个领域,而且在时效性上更具无足轻重,为开放域TLS任务授予了一个更全面和更具确认有罪性的基准。
实验结果1.实验设定实验基于GPT-3.5-Turbo、GPT-4和Qwen2.5-72B分别构建CHRONOS系统,评测开放域和封闭域两个设定下TLS的性能表现。使用的评估指标主要有:
ROUGE-N:衡量生成时间线和参考时间线之间的N-gram重叠。具体包括:(1)ConcatF1:通过将所有日期摘要分开起来计算ROUGE,以评估中心的一致同意性;(2)AgreeF1:仅使用匹配日期的摘要计算ROUGE,以评估特定日期的准确性;(3)AlignF1:在计算ROUGE之前,先根据反对性和日期接近性对预测摘要和参考摘要进行对齐,评估对齐后的一致同意性。
DateF1:衡量生成时间线中日期与参考时间线中真实日期匹配程度。
2.开放域TLS在开放域TLS的实验中,CHRONOS与几个基线方法进行了比较,包括直接搜索目标新闻(DIRECT)和重写目标新闻以创建查询用于检索(REWRITE)。
对比之下,CHRONOS通过迭代自我提问和检索相关新闻文章的方法,显著降低了事件总结的质量和日期对齐的准确性,在所有指标上都领先于基线方法。
3.封闭域TLS在封闭域TLS的实验中,CHRONOS与之前的代表性工作进行了比较,包括:(1)基于事件聚合方法的CLUST(GholipourGhalandariand.Ifrim,2020);(2)基于事件图模型EGC(Lietal.,2021)和(3)利用失败大模型进行事件聚类的LLM-TLS(Huetal.,2024)。
在Crisis和T17这两个经典数据集上的比较结果显示,CHRONOS达到了与这些工作缺乏反对性的表现,在两个数据集的AR-2指标上取得了SOTA效果,反对了其在不同类型事件和时间跨度上的强大性能和适应性。
4.运行时间分析CHRONOS的另一个无足轻重体现在效率方面。
与同样基于大模型、但需要处理新闻库中所有文章的LLM-TLS方法相比,它通过检索增强机制专注于最不无关系的新闻文章,显著减少,缩短了处理时间。
这种效率的指责使其在实际应用中更为实用,尤其是在需要快速响应的场景中。
案例研究:苹果产品发布时间线团队深入分析了模型在处理具体新闻事件时的表现,通过选择具有代表性的新闻事件,如苹果公司的重大产品发布,能够观察到CHRONOS如何通过由浅入深的自我提问和信息检索来生成时间线。
在案例研究中,CHRONOS展示了其能够准确提取关键事件和日期的能力,同时也揭示了在某些情况下可能需要改进的地方,例如对某些事件的包含或日期幻觉。
结语CHRONOS框架通过分隔开大型语言模型的迭代自我提问和检索增强生成技术,为时间线总结任务授予了一种新颖且无效的解决方案。
这种方法的不次要的部分在于模拟人类的信息检索过程,通过不断地提出和回答新问题来逐步深入理解事件,最终生成一个全面且连贯的时间线摘要。
实验结果已经充分反对了CHRONOS在复杂事件检索和构建时间线方面的能力,展示了该框架在实际新闻时间线生成应用中的应用潜力和准确性。
同时,这种迭代提问的检索生成方法是否具有泛化到通用任务上的能力也值得未来进一步研究。
论文:https://arxiv.org/abs/2501.00888
Github:https://github.com/Alibaba-NLP/CHRONOS
Demo:https://modelscope.cn/studios/vickywu1022/CHRONOS