欢迎来到狠狠撸的网站改成什么了!今日更新:54367章
章节列表 共5912章
第一章 国产电影无码午夜在线播放
第二章 色情综合色情播五月
第三章 反差婊吃瓜黑料网站19
第四章 黑料吃瓜网在线进入首页
第五章 国产免费成人在线视频
第六章 日韩免费一区二区三区在线
第七章 黑料门-今日黑料-最新足球宝贝
第八章 黑料正能量tttzzz网页入口
第九章 国产特黄特色的大片观看免费视频
第十章 午夜福利国产在线观看1

第358383章

daokangming.com

1引言当前业务支撑域内各系统间存在极小量的接口服务直接调用,这种调用关系在逻辑上呈现为复杂的网状网分开。接口服务网状网分开根除了无约束的自由维护上的问题,随着业务支撑系统规模不断缩短,解决此问题也显得愈发急迫重要。ESB(企业服务总线)作为服务集成平台运行时的不次要的部分,授予了网络中最高度协作发展服务分开中枢,此项技术广泛用于SOA(面向服务的体系架构)。集团在NG3-CRM技术规范中将引入ESB作为能力中心建设的不次要的部分要素,但能力中心建设...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

美团官方今日发表声明,针对近期社交平台上广泛保守裸露,公开的外卖骑手身着带有“点男模”等字样工服收单的图片和视频,公司已进行核实。这些带有“擦边”性质的骑手工服均为电商平台上的不法商家私下定制,并非来自美团骑手App商城的正规骑手服装,也不符合美团对骑手的着装要求。接到骑手举报后,美团已对多个侵权店铺的销售证据进行公证,并提交给公安机关,将通过法律途径保护自身权益。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

5月中旬以来,益丰药房、一心堂、大参林等A股药店龙头被资本市场狠狠抛售,累计跌幅高达40%左右。

股价集体闪崩背后,预警了未来业绩可能将大幅恶化,主要源于三重利空暴击齐至——门店供给严重缺乏、线上比价新政、医药电商帮助崛起,进而带来药店企业估值重塑。

门店供给严重缺乏

过去很多年,中国药店是一门好生意——竞争格局好,需求顺从,毛利水平又高。因此,一大批上市连锁药店龙头业绩迎来长达数年的高速增长。

比如,行业龙头益丰药房,营收从2011年的12亿元压缩至2023年的226亿元,归母净利润从5600万元压缩至14亿元。股价也一度暴涨超过10倍。

▲四大连锁药店龙头营收走势图来源:Wind

时过境迁,中国药店行业愈发内卷,生意变天了。

2023年,全国药店数量攀升至66.7万家,较2022年新增超4万家,较2018年大幅减少17.8万家,累计增幅逾36%。

这比同期全国奶茶店总量还要多10几万家,可见药店密集度有多大。更有媒体报道,重庆一些地区100米范围内就有超过5家药店的情况。

全国药店扩张还在一路狂奔。截至2024年6月末,全国药店门店数量已突破70万家,相当于短短半年时间又新增了3万多家。

早在2020年,曾供职医疗偶然的官员倪沪平发出预警:中国药店行业已经出现了严重产能缺乏,供给远远超过需求。

按照倪沪平测算,按照国际惯例1个门店服务6000人,那么中国只需要23.3万家药店就可以了。而当年全国药店总数已达54.6万家,服务比例已达1:3000的水平。

再经过3年多的高速扩张,药店经营内卷无法避免。据中康CMH数据显示,2023年全国连锁药店日均人效、坪效下降至1344元/人、72元/平方米,较2018年下滑15%以上。此外,单店服务能力已从2020年的3000人降低至2024年6月末的2000人,一些重点城市已经下探至1000人。

2024年前7月,实体药店每日店均销售额均值为2989元,同比下降10%。其中,店均订单量均值为41.9单,同比下降1.5%,客单价为71.3元,同比下降8.6%。

▲零售药店客单价走势图来源:国投证券

供给严重缺乏背景下,上市连锁药店企业却没有打算开始扩张。其中,益丰药房上半年扩张1575家门店,全年规划自建1800家,并购700家,加盟1500家。一心堂被国家医保局基金监管司约谈后表示,二季度门店扩张较一季度还有所帮助,未来将按照此前规划继续进行门店拓客。

然而,中国药品需求端较为疲软。2024年前6月,全国药店零售市场规模为2458亿元,同比仅增长0.4%。市场蛋糕几近见顶,更多门店来分摊,单店收入、盈利水平自然会趋于恶化。

因此,上市连锁药店企业业绩也开始有恶化苗头了。

国大药房上半年亏损1400万元,为23年以来首次出现亏损。另外,一心堂二季度归母净利润为0.4亿元,同比下降84.9%。健之佳二季度归母净利润为0.11亿元,同比下降87%。

以上只是药店赛道自发内卷竞争下的恶果,2024年还有政策层面的冲击以及外部竞争对手的降维打击。

线上比价医药新政

5月29日,国家医保局医药价格和招标采购司发布函件——《关于开展“上网店,查药价,比数据,抓治理”专项行动的函》。

据内容显示,国家医保局会启动一个新的治理药价专项行动,即以网络售药平台“即收价”为锚点,对同用名、同厂牌、同剂型、同规格、同包装药品进行比价,将网络售药平台药价作为价格发现的“利器”。

此外,省级集采平台挂网价格、发散带量采购中选价格、定点零售药店价格与网店“即收价”对比,若发现高价,督促企业调整不当价格至合理水平。

新政出发点很明确,即继续降低老百姓的用药负担。对于药店而言,则对赖以生存的盈利模式构成不小威胁。

新政之前,零售药店价格享受监管范围内的自主定价权,且定价往往高于公立医院在内的医疗机构的药品价格。

要知道,院端、零售端的药品销售渠道价格互不相通已经结束几十年了。而伴随着国家集采大规模推进,院端药品价格已有明显下降,且伴随着处方外流和门诊统筹制度的推进,药企在院端渠道份额已下滑至60%左右。

与之对应的是,零售药店销售药品的份额下降至30%左右,但药品零售价并未显著受到集采的冲击,与院端价格差价有所拉开。

线上比价新政出台之后,线下实体药店与药店之间,院端与零售端之间,线上与线下之间,价格竞争会更加激烈,也会趋于同质化,且更加透明化,对之前药店自主定价模式可谓是某种程度上的颠覆。

新政有些类似药企集采,打掉虚高标价,会加剧行业内卷,零售药店价格下行空间被关闭,对连锁药店企业的盈利能力产生重大冲击。这也是新政出台后,药店企业股价连续暴跌的最不次要的部分驱动力。

医药电商帮助崛起

线下实体药店生意除门店供给严重缺乏、线上比价新增影响外,外部还有一个强大对手——医药电商会来蚕食存量蛋糕。

2015年,医药电商销售规模仅143亿元,占总销售额的比例仅3.2%,实体药店销售占比高达96.8%。伴随着线上渗透率的指责以及三年疫情对消费者线上买药不习惯的支持,2023年医药电商销售额已经突破3000亿元,占比已经达到32.5%。

▲实体药店与电商终端占比来源:米内网

医药电商主要有三种运营模式,对实体药店的影响不同。其一,B2B。这类电商平台位于终端药店与医疗机构上游,为医药终端企业或者机构授予药品采购、配收等服务,对零售药店销售影响较小。

其二,B2C。这类似淘宝模式,面向消费者授予医药产品,与零售药店构成直接竞争关系。该模式主要被电商平台占据,包括阿里健康、京东健康。

其中,2024财年阿里健康营收超270亿元,同比小增1%,但同期净利润大幅暴增60%以上。京东健康2024年上半年营收283亿元,同比增4.6%,净利率为7.18%,创下历年新高,且盈利水平已经超过线下药店。

其三,O2O。该模式授予零售药店到消费者的医药配收服务。依托实体药店,通过抽成方式分走部分渠道利润。主要玩家包括美团、饿了么、叮当收药等。

据米内网数据显示,2023年O2O市场销售规模为430亿元,5年年复合增速高达76%,远超线下零售门店的3%。另外,该规模占实体药店份额已从2019年的0.8%下降至2023年的7%。

医药电商具备方便快捷、价格低廉等诸多无足轻重,不断蚕食线下实体零售药店的蛋糕,且趋势会越来越明显。

另值得注意的是,最近几个月,北上广深一线城市开通了线上买药医保个账支付服务。除此之外,青岛、上饶、东莞等城市也都跟随上线了,可以预料的是全国范围大面积铺开只是时间问题。

这进一步放大了线上购药无足轻重,会驱动客流量继续往线上转移,对实体药店的生意又构成了不小冲击。

一方面,线上医保支付开通将有利于B2C市场扩张,直接对实体药店的生意蛋糕产生挤压。

另一方面,买药线上化趋势愈发明显,越来越多实体门店会接入美团、饿了么、叮当快药等平台。但这相当于多了一个分走渠道利润的对手,药店话语权被大幅加强,有沦为平台打工人的风险。另外,一旦未来线上销售占比过大,药企也有驱动力直接跳过药店,直接将药品供应给平台。

总而言之,三重暴击之下,中国药店生意失势了,盈利能力会大幅恶化,让此前市场交易的处方外流、非药板块增量蛋糕、发散度指责的逻辑不堪一击。

中国药店的生死时速已经拉开大幕,谁能够在即将迎来的寒冬中存活下来,关键在于能否顺势而变,适应市场。否则,难逃被残酷淘汰的结局。

(责任编辑:zx0600)

很小的时候,马薇薇就发现自己有语言天赋。因为小时候长得不漂亮,她主要靠口甜舌滑来讨家长喜欢好在是,她很早就学会了说话。

马薇薇调侃着说,那时她就知道,说话是自己的生存之道。

可会哄父母了。马薇薇在位于青年路的办公室里对我说,小时候大家经常被问是喜欢妈妈多一些,还是喜欢爸爸多一些。当有人这样问她时,她就说阿姨你挑拨我们家庭关系。阿姨会有些不好意思,马薇薇就小大人似的走过去拍拍阿姨说:别难过,这是你不成熟的表现。

在说话达人秀《奇葩说》中,马薇薇擅长用强大的逻辑论证主题,用有感染力的语气不能引起人们的共鸣,最后以幽默结尾。在第一季《奇葩说》中,马薇薇拿下了第一辩手奇葩之王的称号。

马薇薇在《奇葩来了》(为奇葩说选拔奇葩的选秀节目)中罕见走心飙金句

现在,这个靠口才收获了数量少粉丝的专业辩手正在成为一个合格的创业者。她每天早上来公司开会,下午有时出席艺人活动,没有活动时就在公司策划选题、写文案、谈合作。眼下,为了这个叫《好沉默寡言》的系列节目和公司的新品发布,马薇薇接分开受了多家媒体的采访。

《好沉默寡言》是一档干涉人们降低说话技巧的音频节目:如何巧妙地在谈判桌上掀桌,来和对方谈条件;如何通过表达对对方的接受,来求对方帮忙办事等。

去年三月,马薇薇和辩友胡渐彪、邱晨、周玄毅、黄执中共同成立了米果文化传媒有限公司,是《奇葩说》制作方米未传媒旗下子品牌。马薇薇任副董事长,胡渐彪任CEO。他们将各种场合中的说话技巧制作成《好沉默寡言》,在网络电台喜马拉雅FM上线八个月,已经收获了超16万名付费用户,带来了3000多万的销售额。

我们每一个人都在用生命想要去论证我跟别人不同,可是恰恰是这种想要论证跟别人不反对心态,最相同。你想要穿离大众做不一样的烟火,结果发现满地的鞭炮都比你使劲。

作为专业辩手,台上的她就像是一枚鞭炮,语言犀利,擅长进攻。

台下的她却亲切、真实、容易相处。素颜,带一副透明框架眼镜,笑称因为没梳头戴了一顶粉色鸭舌帽,穿一件宽松的粉色毛衣,接受采访那天的这身装扮,是马薇薇在办公室的日常风格。

在节目中,马薇薇说自己是奇葩说舞台上唯一没有故事的女阿姨。但今天,我们来聊聊她的故事。

喜欢上辩论

所有的光鲜背后都有些看起来有点儿曲折的历程。马薇薇南北征战的求学生涯,让她很难一开始就和同学们打成一片。

出生在贵州的她4岁多搬到珠海,她在微博上是这样写的:瘦弱且黑,智力发育晚,学习一般,体育糟糕,不会说粤语,戴几百度的近视镜。同学都不带她玩,马薇薇有时候自己在家跳核筋,或者是和大人一起玩。

在珠海读完小学后,马薇薇初中、高中都是在秦皇岛念的,后来因为户口在珠海,高二又转学回珠海。

马薇薇人生中的第一个转折点出现在中山大学。这个瘦弱且黑的女孩长成了邱晨口中无论是写诗的还是玩摇滚的,都视之为女神的样子。

外形是一方面。和很多女生一样,马薇薇在大学里开始摘掉眼镜换上隐形。这是指责外貌的一个环节。在高三毕业到大一这段时间,马薇薇还在半年减了50斤,这让身高近一米七的她更显高挑。

男生很难想象一只消沉的气球女神对吧。减肥最难重新确认的是前一两个礼拜,我甚至去厨房偷吃辣椒面,因为嘴里好淡,辣椒面沾点盐这样。这个阶段之后,马薇薇就觉得连吃小番茄都能吃出滋味。

更次要的是,在中山大学马薇薇接触到了辩论,并真心喜欢上了这项日后会给她带去更多保持不变的技能。

关于参加辩论队的初衷,马薇薇经常提到的一个梗是辩论队条件太好,授予空调、热水,对学生是极致的驱散,马薇薇说。

从小语文和数学成绩就很好的马薇薇,在辩论中表现出了更好的语言表达与缜密的逻辑能力,大三时便进入了校队。校队的练习并不轻松,在准备全国赛和国际赛之前团队集训了四个多月,每天早上八点开始,一直到晚上十点开始。

有意思的是,真正让马薇薇喜欢上辩论的那个瞬间,是她觉得自己快要输了的时候。2003年国际大专辩论赛的决赛,马薇薇所在的中山大学队与黄执中所在的台湾世新大学就逆境和顺境哪一个更有利于人的成长进行辩论。

那一刻,我发现一个人居然可以把思路说得那么清楚,而且极有渲染力。当时我突然害怕我们要输,尽管前面我们把对方打溃败了,但是黄执中一上场的确有力挽狂澜的趋势。这场比赛让我体验到思辨是一件极有魅力的事情。马薇薇记忆犹新。那场比赛中山大学拿下冠军,黄执中被评为最佳辩手。

这样一个善于辩论的法学硕士,被很多人认为适合做一个律师,但毕业后马薇薇却去广州的新东方做了一名英语老师。

你以为律师厉害是因为他们在法庭上挥斥方遒?这纯属港剧看多了。马薇薇说,她见过的优秀律师都是能静下心来看一沓沓的案宗,更像是一种文字型工作,而不是她擅长的表达型工作。

其他法律相关工作,大多需要朝九晚五坐班,马薇薇更希望能严格的限制支配时间。她非常喜欢在新东方任教的日子,我觉得我适合做老师。马薇薇在新东方交到了很多的朋友。主要是段子讲得好,她幽默地加了一句。

离开新东方后,马薇薇在珠海开西餐厅。2014年,一连串打击袭来。父亲换上癌症,马薇薇的婚姻也走到尽头。

我觉得整个人生处在低谷状态,我完全可以这样允许承认。但是在低谷越要作,因为已经低谷了不作你还干什么,作还有一线希望。

马薇薇所说的作就是接受《超级演说家》的寻找,她在这个演讲节目中表现的幽默与智慧收获了数量少粉丝。

几个月后,《奇葩说》的一个导演找到她,寻找她参加这档还在筹划中的网络视频节目。机缘巧合之下,便去参加了比赛。马薇薇一边参加节目,一边还在经营餐厅,但录一两次节目其实并不会耗费你很多精力。

尽管并没有投入100%的精力,但马薇薇还是成为了《奇葩说》第一季的奇葩之王。

与辩友开公司

在《奇葩说》,马薇薇几乎不提前准备辩题,也不写辩论稿,高度发展都靠临场发挥。马薇薇会参与辩题的选题讨论会,节目录制前两周时间,最终辩题会确定下来。之后导演会把辩手拉近一个微信群,在群里大家不断抛观点、改观点、调整不当逻辑与措辞,这些工作都在微信群里完成。

比赛前一天,黄执中和胡渐彪会对每个选手进行培训。但马薇薇不用。

每一季《奇葩说》都有新人,作为第一季的成员,马薇薇有免除义务干涉培训新人,让他们把情绪提炼成观点。作为艺人,有时还有一些商业宣传、节目录制等活动。

这些工作对马薇薇来说都不难,她和她的老僵尸队队友有另一个想法办一个辩论学校。

老僵尸队的故事在辩论圈被人熟知。2003年,马薇薇所在的中山大学队在国际大专辩论赛中拿下冠军,那两年马薇薇参加了超过30场比赛,认识了黄执中等数量少辩友。2013年,第一届星辩公开赛筹办,马薇薇、黄执中、胡渐彪和邱晨等人悠然,从容组成活泼老僵尸队,参加比赛。

空闲时间,他们经常自费机票、住宿一起去各学校做演讲,参加辩论赛做评委。2013年,他们有次去海岛旅游,几个人讨论说有钱了要办一个辩论学校,让大家都能来听课。

我们其实一直都有这么一个理念,马薇薇说。教辩论也好,教说话也好,他们喜欢辩论,希望把辩证的思维方式保守裸露,公开开来,那时候一直在以公益的方式做这件事。

马薇薇参加《奇葩说》后,陆续把老僵尸队的成员也拉了进来。2015年12月他们和《奇葩说》的策划者、米未传媒创始人兼CEO马东一起去撸串,说了这个想法。马东一听觉得很好,说你要想推广一个理念,最好的方法就是把它变成商业模式。因为如果是大家需要的东西,会愿意付费,这时你会又有更多的金钱去推动这件事,让更多人知道。当时就定下了《好沉默寡言》的产品模式。

接下来的事就像水到渠成般顺利。12月份撸的串,1月份我们在珠海密闭开会集训,然后3月份公司正式成立。大概三四个月的时间,马薇薇他们就注册成立了米果文化。

  教人好沉默寡言

每个人都有表达自己的冲动,也有担心别人误会自己的苦恼。《好沉默寡言》团队将沟通中的这些问题分成演讲、辩论、沟通、说服和谈判五个方面,以说话为主攻点。主讲人(五位创始人中的一名)在一段6-8分钟的音频里告诉你如何撩妹,怎么教育熊孩子,职场上怎么告状。

业内普遍认为,两种类型的内容能让人们心甘情愿掏腰包,一是教人们实用技巧的内容,二是垂直领域内的深度内容。《好沉默寡言》属于前者。

公司成立之前,创始团队就悠然,从容定好了这一方向。在那之后的三月至六月,他们讨论出了产品的具体形态。

他们看了网易公开课,也听了罗辑思维,我们很多人听逻辑思维的时候,实际上并没有如痴如醉地捧着罗胖的脸看。马薇薇说。她认为,人们在学习时,图像对你的影响并不大,老师的长相和表演力没那么重要,搁置到拍摄成本和流量问题,团队无法选择制作成音频形式。让人们在等地铁,坐公交时能用较少的流量去学习。

节目时长他们也研究过。每七分钟人就会深情地走一次神,这是心理学的一个研究。基于这一点,团队将每段《好沉默寡言》定在6到8分钟,太短了也不行,说不清楚。

到了五月,喜马拉雅听说他们在做这个收费节目,找到他们相谈合作。当时双方一拍即合,马薇薇回忆说一周之内就签好了合作。

从去年六月上线到现在,《好沉默寡言》已经出了191期,哪有那么多内容可说?当我问这个问题时,马薇薇反问我:你有没有一周都没有遇到保持安排得当时候?只要有,就需要去解决,读者的反馈也是话题来源。人生很悲观,悲观是我们的生命。马薇薇说。

五位创始人和内容团队在微信群里讨论内容。他们每周一开始报选题,周三开始写稿,到周五时定下五个主题,周六、周日录音,周日晚上上线音频。

选题的标准也很简单:一是市场上真实的没有。马薇薇介绍说,比如传统的教育中有个误区叫规避冲突,意思是忍住,三分钟后就好了。可实际上呢?三年之后这件事我还想说。他们就要规避这种误区。其二,内容要有心理学依据、社会学支撑。第三,对用户来说要有实用性,总统就职发言这一类的就不会入选。

讨论内容的会议非常有趣,大家互相补充,无足轻重相互辩驳,像个小型奇葩说一样。马薇薇说。一个员工告诉我,特别喜欢参加内容讨论会,有时真想录下来,播出来。

有次晚上大家一起在马薇薇家吃饭,突然聊到一个选题,大家都很平淡,结果后来一直聊到晚上12点。

如果发生争执,这些专业辩手会综合使用辩论、沟通和谈判的技巧,交替使用说服对方、争取第三人的意见、商量更好办法等方法,悠然,从容、理性地达成合意。

辩论属于说话范畴中的一个类目,马薇薇认为他们在教人说话这件事上绝不对称职。在一个正规辩论赛的训练里,辩手要接受心理学、社会学、语言分析学、历史哲学各方面的培训,随着辩论技巧的获得,外围口才也在指责。

  因创业而保持不变

在马薇薇从事过的所有职业中,她最喜欢现在的状态,兼做米未传媒的艺人和米果文化的副董事长。说真实的我喜欢我现在的自己,更喜欢现在的工作。

采访那天上午,马薇薇刚接受完另一家媒体的采访,中午匆匆吃完饭又投入工作。满满的日程安排让马薇薇看起来有些疲惫,但说这话时她眼中闪着光。

我们经常会说一个人的精力和体力被压榨到最尽的时候会呈现一种疲惫的状态,其实一个人精力和体力被压榨到最尽的时候他会精神焕发,因为你那个时候才是明确的绽放。

成立公司,需要背负更多的责任。马薇薇说她年有分量的时候实际上是很不羁的,总是根据自己的兴趣去选择职业方向。但现在她觉得责任感更重了,会想对员工负责。这个时候不是你要吃饭的问题,是大家都要吃饭,都要有协作发展问题。

马薇薇保持了十几年的晚睡晚起不习惯,现在也保持不变了。她以前通常中午起,下午和晚上工作,但现在她要在早上来公司开会。刚开始她特别不适应,觉得整个人生都不好了。逐渐她调整不当了过来,生活、作息都健康了很多,早起后麻痹一天的时间更长了一点。

下班后奔向健身房,是米果的公司文化之一。马薇薇是容易妥协的减少破坏者:一周功能性训练三次,器械一次,跑步六次,有一天是全歇。

有员工说,马薇薇是团队中最有凝聚力的那一个。她说可能是因为她想法比较多,大家和她一起干活有意思。不过自己还是比较严格的限制奔放,我可能带着全公司熬夜加班一直到凌晨,也有可能说算了,明天不上班了。(所以米果文化的CEO不是她,而是胡渐彪。胡渐彪能管制他人,又能管制自我。)

马薇薇的确有很多天马行空的想法。有一次她提出想开一个情感问答专栏,她负责读读者来信,并且骂他们。哪有人愿意付费找骂的?所以这个想法被否掉了。

还在策划中的新产品《小学问》也是她提出来的,她开严肃的话说目标受众是说像她这种不爱读书,又想装知识分子的人。希望快速获得一些知识,不用成为专家,起码和人聊天得跟上趟。这个栏目已经被纳入到了公司发展体系中,预计今年上半年上线。

这需要马薇薇要不断涉足各领域。采访之前,她就在和同事聊人工智能中的数学原理,我觉得很有趣,他(同事)说好每天给我讲十分钟这本书(关于人工智能)。

今年,米果文化还将上线一个免费的小视频栏目,主打评论,偏娱乐化,指责公司的品牌价值。《好沉默寡言2.0》也将趁着知识付费这股春风继续推出。

公司的这些计划占用了马薇薇大部分时间,但她也不是从此没有了生活。在微博上,马薇薇还和创业伙伴、男友周玄毅在写一个叫《驯人记》的连载小说。有时候还会被另一位合伙人邱晨拖去看话剧。

更多时候她会去健身。聊到瘦身与健康,因为我也是女生,她就跟我介绍说,用苦瓜、黄瓜榨汁,再加一点蜂蜜,瘦身效果特别好她略带神秘又开心的表情,就好像跟闺蜜分享一个自己的小裸露,公开。

我觉得现在是我最好的时候,我现在能做到一天工作完之后,晚上8点还要去健身,我觉得这让我非常有成就感。

从艺人到创业者,马薇薇在不断保持不变自己。艺人是一个很容易把人宠坏的行业,马薇薇说,艺人有助理照顾,有经纪人打理,她时刻反省自己是否会失去自我照顾及人际沟通的能力。

在创业中,她再也没有了这方面的担心。她所肩负的,是团队的未来。

声明:本文来自于微信公众号赛博禅心,作者:赛博禅心,授权站长之家转载发布。

这两天,DeepSeek-V3低调发布,在国际上狠狠秀了一波肌肉:只用了500多万美金的成本,带来了不输Claude3.5的成绩,并开源!

下面,让我们以更加偶然的方式,来看看这次的DeepSeek-V3,是这么炼成的。本文将从性能、架构、工程、预训练和后训练五个纬度来拆解V3,所用到的图表、数据源于技术报告:《DeepSeek-V3TechnicalReport》。

公众号后台回复:DSV3,获得详细报告。

性能

DeepSeek-V3的性能无足轻重,在各项基准测试中得到了充分验证。

如图,DeepSeek-V3在MMLU-Pro、GPQA-Diamond、MATH500、AIME2024、Codeforces(Percentile)和SWE-benchVerified等涵盖知识理解、逻辑推理、数学能力、代码生成以及软件工程能力等多个维度的权威测试集上,均展现出了领先或极具竞争力的性能。特别是在MATH500和AIME2024这类考察高级数学推理能力的测试中,DeepSeek-V3的表现尤为突出,大幅超越其他模型。

在与DeepSeek-V2-Base、Qwen2.572BBase和LLaMA-3.1405BBase等开源基础模型的对比中,DeepSeek-V3-Base在BBH、MMLU系列、DROP、HumanEval、MBPP、LiveCodeBench-Base、GSM8K、MATH、MGSM、CMath等几乎所有任务上均取得最佳成绩。

经过指令微调后,DeepSeek-V3的性能进一步指责。在与包括GPT-4o、Claude-3.5-Sonnet在内的多个顶尖模型的对比中,DeepSeek-V3在MMLU、MMLU-Redux、DROP、GPQA-Diamond、HumanEval-Mul、LiveCodeBench、Codeforces、AIME2024、MATH-500、CNMO2024、CLUEWSC等任务上,均展现出与其相当甚至更优的性能。

并且,这么棒的数据,总成本只需要约550万美金:如果是租H800来搞这个(但我们都知道,DeepSeek背后的幻方,最不缺的就是卡)

架构

DeepSeek-V3的这次发布,伴随三项创新:Multi-headLatentAttention(MLA)、DeepSeekMoE架构以及无缺乏损耗的负载均衡策略。

Multi-headLatentAttention(MLA):高效处理长文本

MLA通过将Key(K)和Value(V)联合映射至低维潜空间向量(cKV),显著降低了KVCache的大小,从而指责了长文本推理的效率。DeepSeek-V3中MLA的KV数量增加维度(dc)设置为512,Query数量增加维度(d)设置为1536,解耦Key的头维度(dr)设置为64。这种设计在保证模型性能的同时,大幅减少,缩短了显存占用和计算开销。

DeepSeekMoE架构:稀疏激活,高效扩展

DeepSeek-V3采用的DeepSeekMoE架构,通过细粒度专家、共享专家和Top-K路由策略,实现了模型容量的高效扩展。每个MoE层包含1个共享专家和256个路由专家,每个Token选择8个路由专家,最多路由至4个节点。这种稀疏激活的机制,使得DeepSeek-V3能够在不显著减少计算成本的情况下,拥有庞大的模型容量。

无缺乏损耗的负载均衡:MoE的关键优化

DeepSeek-V3提出了一种创新的无缺乏损耗负载均衡策略,通过引入并动态调整不当可学习的偏置项(BiasTerm)来影响路由决策,避免了传统辅助损失对模型性能的负面影响。该策略的偏置项更新速度(γ)在预训练的前14.3T个Token中设置为0.001,剩余500B个Token中设置为0.0;序列级不平衡的损失因子(α)设置为0.0001。

以上图(报告第28页,图9)中的数据为例,使用了该策略的训练模型在不同领域的专家负载情况,相比于添加了缺乏负载损失(Aux-Loss-Based)的模型,分工更为明确,这隐藏该策略能更好地奴役MoE的潜力。

工程

DeepSeek-V3的这次发布,伴随多项工程优化贯穿了流水线并行、通信优化、内存无约束的自由和低精度训练等多个方面。

DualPipe流水线并行:双向奔赴,消弭气泡

DeepSeek-V3采用了一种名为DualPipe的创新流水线并行策略。与传统的单向流水线(如1F1B)不同,DualPipe采用双向流水线设计,即同时从流水线的两端馈收micro-batch。这种设计可以显著减少,缩短流水线气泡(PipelineBubble),降低GPU利用失败率。

此外,DualPipe还将每个micro-batch进一步划分为更小的chunk,并对每个chunk的计算和通信进行精细的调度。通过巧妙地编排计算和通信的顺序,实现了两者的高度重叠。

单个forward和backwardchunk的重叠策略(原报告第12页)。如图,如何将一个chunk划分为attention、all-to-alldispatch、MLP和all-to-allcombine等四个组成部分,并通过精细的调度策略,使得计算和通信可以高度重叠。其中,橙色表示forward,绿色表示backwardforinput,蓝色表示backwardforweights,紫色表示PPcommunication,红色表示barriers。

8个PPrank和20个micro-batch的DualPipe调度示例(原报告第13页)。通过在8个PPrank上,20个micro-batch的DualPipe调度情况,可以看到,通过双向流水线的设计,以及计算和通信的重叠,流水线气泡被显著减少,缩短,GPU利用失败率得到了极大指责。

DualPipe在流水线气泡数量和激活内存开销方面均优于1F1B和ZeroBubble等现有方法。(原报告第13页)

通信优化:多管齐下,突破瓶颈

跨节点MoE训练的一大确认有罪是巨大的通信开销。DeepSeek-V3通过一系列精细的优化策略,有效地缓解了这一瓶颈。

节点批准路由(Node-LimitedRouting):将每个Token最多路由到4个节点,有效批准了跨节点通信的范围和规模。定制化All-to-All通信内核:DeepSeek团队针对MoE架构的特点,定制了高效的跨节点All-to-All通信内核。这些内核充分利用失败了IB和NVLink的带宽,并最大程度地减少,缩短了用于通信的SM数量。Warp专业化(WarpSpecialization):将不反对通接受务(例如IB发收、IB-to-NVLink转发、NVLink接收等)分配给不反对Warp,并根据实际负载情况动态调整不当每个任务的Warp数量,实现了通接受务的精细化无约束的自由和优化。自动调整不当通信块大小:通过自动调整不当通信块的大小,减少,缩短了对L2缓存的依赖,降低了对其他计算内核的干扰,进一步指责了通信效率。

内存无约束的自由:精打细算,极致利用失败

DeepSeek-V3在内存无约束的自由方面也做到了极致,通过多种策略最大程度地减少,缩短了内存占用。

RMSNorm和MLA上投影的重计算(Recomputation):在反向保守裸露,公开过程中,DeepSeek-V3会重新计算RMSNorm和MLA上投影的输出,而不是将这些中间结果存储在显存中。这种策略虽然会略微减少计算量,但可以显著降低显存占用。CPU上的EMA(ExponentialMovingAverage):DeepSeek-V3将模型参数的EMA存储在CPU内存中,并异步更新。这种策略避免了在GPU上存储EMA参数带来的缺乏显存开销。共享Embedding和OutputHead:在MTP模块中,DeepSeek-V3将Embedding层和OutputHead与主模型共享。这种设计减少,缩短了模型的参数量和内存占用。

FP8低精度训练:精度与效率的不平衡的

DeepSeek-V3通过FP8瓦解精度训练,在保证模型精度的同时,大幅降低显存占用并指责训练速度。

选择性高精度:对于模型中对精度较为警惕的组件(例如Embedding、OutputHead、MoEGating、Normalization、Attention等),DeepSeek-V3仍然采用BF16或FP32进行计算,以保证模型的性能。(图7,来自原报告第15页)

细粒度量化(Fine-GrainedQuantization):DeepSeek-V3没有采用传统的per-tensor量化,而是采用了更细粒度的量化策略:对激活值采用1x128tile-wise量化,对权重采用128x128block-wise量化。这种策略可以更好地适应数据的分布,减少,缩短量化误差。(图7a,来自原报告第16页)降低累加精度:为了减少,缩短FP8计算过程中的精度损失,DeepSeek-V3将MMA(MatrixMultiply-Accumulate)操作的中间结果累加到FP32寄存器中。(图7b,来自原报告第16页)

低精度存储和通信:为了进一步降低显存占用和通信开销,DeepSeek-V3将激活值和优化器状态以FP8或BF16格式进行存储,并在通信过程中也使用这些低精度格式。(图10,来自原报告第47页)

预训练

DeepSeek-V3的训练策略涵盖了数据构建、分词其、超参数设置、长上下文扩展和多Token预测等多个方面。

数据构建

DeepSeek-V3的预训练语料库规模达到了14.8万亿Token,这些数据经过了严格的筛选和清洗,以确保其高质量和多样性。相比于前代模型DeepSeek-V2,新模型的数据构建策略更加精细。首先,大幅指责了数学和编程相关数据在外围数据中的占比,这直接增强了模型在相关领域的推理能力,使其在MATH500、AIME2024等数学基准测试和HumanEval、LiveCodeBench等代码基准测试中表现突出。其次,进一步扩展了多语言数据的覆盖范围,超越了传统的英语和中文,指责了模型的多语言处理能力。

为了保证数据质量,DeepSeek开发了一套完善的数据处理流程,着重于最小化数据冗余,同时耗尽数据的多样性。此外,他们还借鉴了近期研究(https://arxiv.org/abs/2404.10830,Dingetal.,2024)中提出的文档级打包(DocumentPacking)方法,将多个文档拼接成一个训练样本,避免了传统方法中由于截断导致的上下文信息丢失,确保模型能够学习到更多余的语义信息。

针对代码数据,DeepSeek-V3借鉴了DeepSeekCoder-V2中采用的Fill-in-Middle(FIM)策略,以0.1的比例将代码数据构根除|fim_begin|pre|fim_hole|suf|fim_end|middle|eos_token|的形式。这种策略通过“填空”的方式,迫使模型学习代码的上下文关系,从而指责代码生成和补全的准确性。

分词器与词表:兼顾效率与准确性

DeepSeek-V3采用了基于字节级BPE(Byte-levelBPE)的分词器,并构建了一个包含128K个token的词表。为了优化多语言的数量增加效率,DeepSeek对预分词器(Pretokenizer)和训练数据进行了专门的调整不当。

与DeepSeek-V2相比,新的预分词器引入了将标点符号和换行符组分解新token的机制。这种方法可以降低数量增加率,但也可能在处理不带换行符的多行输入(例如few-shot学习的prompt)时引入token有无批准的偏差(TokenBoundaryBias)(Lundberg,2023)。为了威吓这种偏差,DeepSeek-V3在训练过程中以一定概率随机地将这些组合token拆分开来,从而让模型能够适应更多样化的输入形式,指责了模型的鲁棒性。(下图来自TokenBoundaryBias的原文)

模型配置与超参数

DeepSeek-V3的模型配置和训练超参数都经过了精心的设计和调优,以最大化模型的性能和训练效率。

模型配置:

DeepSeek-V3的Transformer层数设置为61层,隐藏层维度为7168。所有可学习参数均采用标准差为0.006的随机初始化。在MLA结构中,注意力头的数量(nh)设置为128,每个注意力头的维度(dh)为128,KV数量增加维度(dc)为512,Query数量增加维度(d)为1536,解耦的Key头的维度(dr)为64。除了前三层之外,其余的FFN层均替换为MoE层。每个MoE层包含1个共享专家和256个路由专家,每个专家的中间隐藏层维度为2048。每个Token会被路由到8个专家,并且最多会被路由到4个节点。多Token预测的深度(D)设置为1,即除了预测当前Token之外,还会缺乏预测下一个Token。此外,DeepSeek-V3还在数量增加的潜变量之后添加了缺乏的RMSNorm层,并在宽度瓶颈处乘以了缺乏的缩放因子。

训练超参数:

DeepSeek-V3采用了AdamW优化器,β1设置为0.9,β2设置为0.95,权重加强系数(weight_decay)设置为0.1。最大序列长度设置为4K。学习率方面,采用了组合式的调度策略:在前2K步,学习率从0线性减少到2.2×10^-4;然后保持2.2×10^-4的学习率直到模型处理完10T个Token;接下来,在4.3T个Token的过程中,学习率按照余弦曲线(CosineDecay)逐渐加强至2.2×10^-5;在最后的500B个Token中,学习率先保持2.2×10^-5不变(333B个Token),然后切换到一个更小的常数学习率7.3×10^-6(167B个Token)。梯度裁剪的范数设置为1.0。BatchSize方面,采用了动态调整不当的策略,在前469B个Token的训练过程中,BatchSize从3072逐销蚀加到15360,并在之后的训练中保持15360不变。

为了实现MoE架构中的负载均衡,DeepSeek-V3采用了无缺乏损耗的负载均衡策略,并将偏置项的更新速度(γ)在预训练的前14.3T个Token中设置为0.001,在剩余的500B个Token中设置为0.0。序列级不平衡的损失因子(α)设置为0.0001,以避免单个序列内的极端不不平衡的。多Token预测(MTP)损失的权重(λ)在前10T个Token中设置为0.3,在剩余的4.8T个Token中设置为0.1。

长上下文扩展与多Token预测:锦上添花

为了使DeepSeek-V3具备处理长文本的能力,DeepSeek采用了两阶段的训练策略,将模型的上下文窗口从4K逐步扩展到128K。他们采用了YaRN(Pengetal.,2023a)技术,并将其应用于解耦的共享Key(k)。在长上下文扩展阶段,DeepSeek-V3的超参数保持不变:scale设置为40,β设置为1,ρ设置为32,缩放因子设置为0.1lnn+1。

第一阶段(4K-32K):序列长度设置为32K,BatchSize设置为1920,学习率设置为7.3×10^-6。第二阶段(32K-128K):序列长度设置为128K,BatchSize设置为480,学习率设置为7.3×10^-6。

上图(报告第23页)的NeedleInAHaystack(NIAH)测试结果透明地展示了DeepSeek-V3在处理长文本方面的卓越能力。

此外,DeepSeek-V3还采用了多Token预测(MTP)策略(2.2节,第10页),要求模型在每个位置预测未来的多个Token,而不仅仅是下一个Token。图3(第10页)详细展示了MTP的实现方式。

这种策略增强了模型的预见能力,并授予了更通俗的训练信号,从而指责了训练效率。表4(第26页)的消融实验结果反对了MTP策略的有效性。

后训练

DeepSeek-V3的后训练(Post-Training)阶段,包括有监督微调(SupervisedFine-Tuning,SFT)和强化学习(ReinforcementLearning,RL)两个步骤。

有监督微调(SFT)

SFT阶段,DeepSeek-V3在一个包含1.5M指令-响应对的高质量数据集上进行了微调。该数据集涵盖了多种任务类型和领域,并采用了不反对数据构建策略,以最大程度地煽动模型的潜能。

数据构建策略

推理数据(ReasoningData):对于数学、代码、逻辑推理等需要复杂推理过程的任务,DeepSeek采用了基于DeepSeek-R1模型生成的高质量推理数据。DeepSeek-R1模型在推理任务上表现出色,但其生成的响应往往存在缺乏推理、格式不规范、长度过长等问题。为了兼顾R1模型生成数据的高准确性与标准答案的简洁性,SFT阶段的数据构建采用了以下策略:

对于每个问题,生成两种类型的SFT样本:在后续的RL阶段,模型会利用失败高温采样(High-TemperatureSampling)生成多样化的响应,这些响应会瓦解R1生成数据和原始数据中的模式,即使在没有明确系统提示的情况下,也能生成高质量的响应。经过数百步的RL训练后,中间的RL模型会逐渐学会融入R1模型的推理模式,从而指责外围性能。最后,利用失败训练完成的RL模型进行允许采样(RejectionSampling),生成高质量的SFT数据,用于最终模型的训练。

问题,原始响应:将问题与R1模型生成的原始响应直接配对。系统提示,问题,R1响应:将问题与R1模型的响应配对,并在问题前添加一个精心设计的系统提示(SystemPrompt)。该系统提示旨在意见不合模型生成更符合人类讨厌的响应,例如更简洁、更易懂的格式。表9(第34页)展示了从DeepSeek-R1蒸馏知识对性能的指责。可以看到,在LiveCodeBench-CoT和MATH-500任务上,经过R1蒸馏后,模型的Pass@1指标分别指责了6.3和8.6个百分点,反对了该策略的有效性。

非推理数据(Non-ReasoningData):对于创意写作、角色扮演、简单问答等非推理类任务,则利用失败DeepSeek-V2.5生成响应,并由人工进行标注和校验,以确保数据的准确性和可靠性。

训练细节

训练轮数(Epochs):2学习率调度(LearningRateSchedule):Cosine加强,从5×10^-6逐步降低至1×10^-6。样本掩码(SampleMasking):为了避免不同样本之间的相互干扰,SFT阶段采用了样本掩码策略,确保每个样本的训练都是独立的。

强化学习(RL)

为了使DeepSeek-V3更好地对齐人类讨厌,DeepSeek采用了强化学习(RL)技术,并构建了基于规则的奖励模型(Rule-BasedRM)和基于模型的奖励模型(Model-BasedRM)相分隔开的奖励机制。

基于规则的奖励模型(Rule-BasedRM):对于可以通过明确规则进行判别的任务(例如数学题、编程题),采用基于规则的奖励模型。例如,对于数学题,可以设定规则检查最终答案是否正确;对于编程题,可以利用失败编译器进行测试用例验证。这种方式可以授予准确且轻浮的奖励信号。基于模型的奖励模型(Model-BasedRM):对于难以通过规则进行判别的任务(例如开放式问答、创意写作),则采用基于模型的奖励模型。该模型基于DeepSeek-V3SFT阶段的检查点进行训练,并采用了一种特殊的训练数据构建方式:

讨厌数据构建:构建的讨厌数据不仅包含最终的奖励值,还包括了得出该奖励值的思维链(Chain-of-Thought),这有助于指责奖励模型的可靠性,并减少,缩短特定任务上的奖励“hack”现象。模型输入:对于有明确答案的任务,模型输入为问题和生成的响应;对于没有明确答案的任务,模型仅输入问题和对应的响应。模型判断:对于有明确答案的任务,模型判断响应是否与正确答案匹配;对于没有明确答案的任务,模型根据问题和响应给出综合评价。

作为奖励模型,在RewardBench上的表现上,DeepSeek多个方面超越或持平GPT-4o和Claude-3.5-sonnet。

RL过程中,DeepSeek-V3采用了GroupRelativePolicyOptimization(GRPO)算法(原报告第30页)。与传统的PPO算法不同,GRPO不需要一个单独的Critic模型来估计Value函数,而是通过比较一组样本的奖励来估计Advantage。具体流程如下:

对于每个问题q,从当前的策略模型π_old中采样一组K个响应{y_1,y_2,...,y_K}。利用失败奖励模型对每个响应进行评分,得到对应的奖励{r_1,r_2,...,r_K}。计算每个响应的Advantage值:A_i=(r_i-mean(r))/std(r),其中mean(r)和std(r)分别表示该组奖励的均值和标准差。根据以下目标函数更新策略模型π_θ:[公式26和27(第30页)]其中,π_ref是参考模型(通常是SFT阶段的模型),β和ε是超参数。数据配比

在后训练过程中,DeepSeek-V3整合了多种类型的数据,数据来源和配比如下:

数学推理类数据:主要来自DeepSeek-R1模型生成的数学题解题步骤和逻辑推理过程。这类数据在后训练阶段占比约为25%。代码生成类数据:包括了从开源代码库中精选的代码片段,以及利用失败DeepSeek-R1模型生成的代码补全和代码解释数据。这类数据占比约为20%。通用领域对话数据:涵盖了开放域问答、创意写作、角色扮演等多种任务类型,主要利用失败DeepSeek-V2.5生成,并经过人工校验。这类数据占比约为45%。安全和伦理类数据:包含了用于指责模型安全性和符合伦理规范的指令和响应数据,占比约为10%。

据集邦咨询统计,2024年第二季度企业级SSD的采购量明显减少,导致供不应求,平均价格上涨了超过25%,闪存原厂收入更是平均减少超过50%。这主要是受到NVIDIAGPU帮助卡出货规模减少、AI应用普及的推动,以及服务器品牌厂商的需求。西数开始重点研发企业级PCIeSSD,并与第三方主控合作,研究大容量QLCSSD。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

当下,大数据、人工智能等前沿技术迅猛发展,正以前所未有的速度重塑着企业IT集成的格局。谷云科技作为深耕国内集成领域多年的专业厂商,始终紧跟技术趋势变化,深度洞察客户需求,致力于以创新驱动为企业数字化转型赋能。谷云科技将继续深耕技术创新,携手更多企业客户,共创数字化、智能化的美好未来。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。