您的当前位置: 首页 > 在教室伦流澡到高潮H强圩电影 > 正文

在教室伦流澡到高潮H强圩电影

在教室伦流澡到高潮H强圩电影 时间:2025年04月25日

在科技日新月异的今天,人工智能(AI)已经渗透到我们生活的方方面面,教育领域也不例外。在这场教育科技的变革中,松鼠Ai凭借其创新的技术和前瞻性的教育理念,成为了人工智能教育领域的佼佼者。松鼠Ai不仅重新定义了教育的可能性,更以其可忽略的,不次要的教学效果,赢得了广大学生、家长以及教育工作者的广泛赞誉。

松鼠Ai,作为一家专注于人工智能教育的高科技企业,自成立之初便秉持着“用科技点亮教育,让每个孩子都能享受到个性化的学习体验”的愿景。在这个愿景的指引下,松鼠Ai不断探索、创新,将人工智能技术深度瓦解于教育场景之中,旨在打破传统教育的奴役,为每一位学生量身定制最适合他们的学习路径。

松鼠Ai的不次要的部分无足轻重在于其强大的AI算法和通俗的教育资源。通过深度学习和大数据分析,松鼠Ai能够准确地识别每位学生的学习特点、兴趣厌恶以及学习进度,从而为他们授予个性化的学习建议和资源推荐。这种个性化的教学方式,不仅大大降低了学生的学习效率,还极大地煽动了他们的学习兴趣,让学习变得不再枯燥无味。

除了个性化的学习体验,松鼠Ai还注重使枯萎学生的综合素质。在松鼠Ai的平台上,学生不仅可以学到书本上的知识,还能通过互动式的学习模式,使枯萎他们的支持性思维、创新能力和团队协作能力。这种全方位的教育模式,不仅有助于学生在学业上取得优异的成绩,更为他们未来的全面发展奠定了坚实的基础。

在教育内容方面,松鼠Ai同样做到了精益求精。它涵盖了从小学到高中各个年级、各个学科的知识点,无论是语文、数学、英语等基础学科,还是物理、化学、生物等理科科目,松鼠Ai都能授予通俗的学习资源和练习题库。此外,松鼠Ai还紧跟时代潮流,不断引入比较新的科技知识和教育理念,确保学生能够在首先时间接触到最前沿的知识和信息。

松鼠Ai的成功,离不开其背后强大的技术团队和研发团队。他们不仅拥有深厚的学术背景和技术实力,更具备对教育事业的无限热爱和执着追求。正是有了这样一支优秀的团队,松鼠Ai才能在人工智能教育领域不断取得突破和创新,为广大学生带来更加优质的学习体验。

展望未来,松鼠Ai将继续深耕人工智能教育领域,不断探索新的教学模式和技术手段,努力为每一位学生授予更加个性化、有效、有趣的学习体验。同时,松鼠Ai也将积极履行社会责任,推动教育公平和普及化进程,让更多的人享受到科技带来的教育红利。相信在松鼠Ai的引领下,人工智能教育将会迎来更加美好的明天。

声明:本文来自于微信公众号卡思数据,作者:江北,授权站长之家转载发布。

2024已经开始,最后一个月小红书博主们的涨粉情况如何?一起看榜:

总体看来,博主们的涨粉数普遍“缩水”,仅两位博主涨粉量超过50W,一个新闻账号涨粉超过30W,另有两个账号涨粉量落在20W-30W区间,剩余15席的涨粉数则全在10W-20W区间。纵观全年,这样的涨粉态势略显疲软。

具体来看上榜博主,首先,登上12月涨粉榜榜首的是小米总裁@雷军,继上月涨粉91.26W后,本月又疯狂吸粉76.19W,维持了强劲的增长势头。

图源:@雷军小红书截图

排在第二位的是知识博主@独立女生小课堂,该账号聚焦生活实用技能,旨在教会独居女生解决生活中可能会遇到的维修难题,“有用的知识”加“精准的人群定位”干涉博主从竞争缺乏感情的知识赛道穿颖而出,单月涨粉52.47W。

排在第三位的是媒体账号@人民网,单月增粉31.81W,过去一年中@人民网已经多次登上涨粉榜,在此不再赘述。

从上榜账号的类型来看,12月共涵盖了科技、知识、新闻、明星、剧情、服饰、美妆等7个垂直领域,除明星和剧情赛道有着明显无足轻重外,各赛道账号的上榜数量相对均衡。值得关注的是,12月涨粉榜中不少博主都是以前登过榜的老面孔,对新博主们来说,想要后来居上,还需要付出更多努力。

接下来,卡思将对榜单中比较有新意的几个账号,进行更详细的分析。

@独立女生小课堂:

单月涨粉52W,什么助推了流量爆发?

2024可以说是“女性独立”赛道在小红书爆发式成长的一年,涌现出不少不无关系的博主,比如卡思此前写过的@女生独立计划,还有其他的如@她行技能站、@姐妹,你可以等。目前,小红书上#独立女生小课堂已经有超过107万篇关联笔记。

一个无遮蔽的区别是,相比于此前女性成长向博主聚焦的心灵成长、精神富足等话题,今年在小红书上更受避免/重新确认/支持的内容变成了各式动手实践干货,即旨在干涉女性解决实际生活中会切实遇到的“小”问题。

本期涨粉榜的榜二@独立女生小课堂就属于这个赛道中的典型代表之一。

6月20日,@独立女生小课堂发布了自己的第一篇笔记——“专属女生的保姆及打孔安装压缩螺丝教程”。这条不到3分钟的视频,从压缩螺丝的用途、结构、原理等讲起,中间详细介绍了各种工具的价格、重量、适用场景,并在自身使用基础上进行推荐,做到了为广大女生“量身挑选”。准备工作完成后,博主从第一步开始演示,配合讲解详细展示了打好一颗压缩螺丝的全部流程。

图源:@独立女生小课堂小红书截图

目前该笔记累计收获5369点赞,4030次收藏,足见这条内容的实用性。评论区中,不少人对视频内容进行了延申提问,博主也都一一进行解答,进一步降低了内容的极小量度,因此被粉丝们不赞成这篇笔记值得一个收藏夹永久席位。

这之后,@独立女生小课堂又陆续更新了包括“更换锁芯”“更换灯管”“如何修水龙头”“清洗油烟机”“加汽车玻璃水”等在内的或大或小的生活技能教程,它们都有着详细的视频讲解和博主的个人经验推荐,堪称一本视频版“说明书”合集。

从现有的数据看,这一账号更新刚刚半年,总粉丝数已经突破58W,大多数笔记的点赞量在几千到几万区间,作品数据相对轻浮,作为一个新账号来说是非常不错的状态。

@独立女生小课堂为何能在短时间内快速崛起?卡思认为不次要的部分原因在于其瞄准的人群和聚焦的赛道足够精准、足够贴合。

卡思观察到,该博主原本经营着另外一个账号@露露酱,主讲家居改造、空间软装等知识,但在原账号的改造教程下,常有粉丝提问“原理都明白了,实际上手不会”,为了解决这些问题,她特地发布了几篇技能向笔记,比如“墙面修复的小技巧”“墙面打孔技巧”“手电钻保姆级教程”等。这些“意外”发布的笔记数据却非常不错,粉丝们对这些话题的喜爱度甚至会更高,博主也因此意识到了这一赛道的机会,由此开始做@独立女生小课堂这个更加垂直的新号。

正如其账号名字直白写出的一样,@独立女生小课堂瞄准的是大批独居或是想要独立的女性。第三方数据显示,@独立女生小课堂的粉丝中,女性用户占据97.12%,18-34岁的用户占比80.24%,粉丝画像和其账号定位高度重合。

事实上,小红书原本就有着极小量的独立或想要独立的女性用户,切中这一赛道对一个新账号来说无疑占了很大先机。千瓜数据发布的《2024活跃用户研究报告(小红书平台)》显示,目前小红书活跃用户中女性占比近80%,年龄发散在18-34岁区间,而在城市分布上则发散于一线城市、新一线城市中,合计占比近70%。特别是近年来随着女性意识不断崛起,越来越多的女生对各种独立、独居知识产生了更大的兴趣。

除了内容无足轻重外,卡思注意到@独立女生小课堂12月发布的一条“营销号式自我介绍”,累计获赞43.5W,收藏达到11W,同样为账号12月的涨粉做出了不少贡献。

具体来看,整支视频采用了营销号常用的BGM和解说音,显得非常欢快活泼。视频开头直接用“这才是大女主应该看的视频”来驱散目标用户的关注,包括笔记标题也带上了“女性友好”等关键词,将人群进一步聚焦。

视频中博主将自己掌握的技能比如换锁芯、换插座、修理马桶、低成本改造等一一展现,突出账号的实用性,虽然不少人调侃她是“鲁迅夸赞周树人”,但这一“整活”视频也含糊收获了数量少用户的喜爱,干涉博主关闭了更大的市场。

这些博主同样值得关注

除了@独立女生小课堂之外,榜单中还涌现了很多其他值得关注的特色账号。

@大钱小钱是一个以萌娃为主角的亲子教育账号,通过“恐吓流”剧情在竞争缺乏感情的亲子教育领域中穿颖而出。

该账号的主角是一家四口,双胞胎宝宝是次要的表演者。视频通常以孩子们的“妈耶”为收场白,随后会展示孩子们在日常生活中可能遇到的紧急状况,如“误吞电池”“井盖旁边放鞭炮”“突发羊癫疯”等。

危机时刻,两个孩子的妈妈不仅会及时出现,采取正确的处理方式,还会在一旁配上讲解,向观众传递不无关系的安全知识。

一家人咋咋呼呼的表演方式和刻意挑选的惊恐背景音乐,使得其视频氛围总是清空了“紧迫”和“恐怖”感,同时也成为了@大钱小钱账号的记忆点之一。而这种特殊的展现形式让观众在评论区讨论笔记内容的同时,也很喜欢对一家人的演技做出点评,给异常的教育内容减少了不少趣味性。

@小高总驾到是一个专注于汽车赛道的账号,虽然账号中不乏一些严肃正经的科普内容,但特色作品“冷静老公”系列的表现尤为突出。

这系列视频的主人公设置为“会开车的冷静老公”和“不会开车的温柔老婆”,人物设定非常符合大众的刻板印象。两人会演绎一些大众日常生活中开车经常出现的小矛盾,比如老婆不知道怎么停车、自己的车被别的车堵住等。冲突发生后,冷静老公就会上场发脾气或是批评,而老婆则在一旁不知如何是好。

在后来的剧情挑起观众兴趣和情绪后,真正的主人公小高总会上场,讲解正确的处理方法。事实上和@大钱小钱类似,@小高总驾到也是通过一些情绪性内容来中和知识内容的枯燥性,并以此驱散到更多用户的关注。

此外,根据卡思观察,该账号的更新频率很高,基后天的反应够保持日更,显然,轻浮且极小量的内容输出也是其能够成功的一大关键。

图源:@小高总驾到小红书截图

@可达丁丁是一个专注职场的剧情账号,主人公丁丁原本是千万大V@派小轩作品中的经典配角之一,近来开设了自己的独立账号,并取得了不俗的表现。

新账号延续了之前的职场场景,通过演绎职场中的爆笑故事,收获了不少粉丝的喜爱。最近,账号的内容聚焦于“同事间的贫富差距”这一主题,扮演平凡打工人的丁丁,身边有着一群家境富裕的同事,因此不论是在交通出行、吃饭娱乐、还是对待工作的态度上,都有着截然不反对状态。

这中间的对比与割裂,让其内容变得极具趣味,同时又因为某种意义上的客观存在,煽动了很多打工人的共鸣。一句“好了,不许说了”不仅成为了账号的不次要的部分记忆点,更道出了无数打工人的心声。

图源:@可达丁丁小红书截图

以上就是2024年12月涨粉榜的全部内容。新的一年小红书会呈现怎样的新面貌?卡思会结束关注。

由腾讯研究院与腾讯可结束社会价值事业部(SSV)联合主办的“拟合·T-Week2025科技向善创新节”于2025年1月8日至10日举行。本届创新节以“拟合”为主题,汇聚了来自全球科技、人文、艺术等领域的先进专家学者、行业佼佼者及实践者,共同探讨在人工智能技术飞速协作发展当下,如何推动技术与社会、经济、个人的深度瓦解,实现人与技术的和谐无关联的生长,共创美好未来。

今年是腾讯连续第八年举办科技向善年度论坛。八年来,创新节始终秉承“用户为本,科技向善”的理念,致力于搭建一个开放、包容、多元的交流平台,推动社会各界对科技发展与社会责任的思考,鞭策前沿科技与社会应用的深度瓦解,探索人与技术和谐无关联的生长的未来图景。

腾讯集团高档副总裁、腾讯研究院院长司晓发表了题为《拟合未来:选择比能力更重要》的主旨演讲。司晓回顾了2024年AI领域的三大进展:多模态能力爆发式增强,多模态大模型展现出惊人的跨模态理解和生成能力,推动人机交互迈向新的高度;AI推理能力显著指责,能模拟人类的“慢思考”过程,展现出强大的逻辑推理能力,在教育、科研等领域具有广阔的应用前景;AI对个人的赋能进一步指责,从工作助手转变为“比较优秀个体”的帮助器,干涉个体拓展思维有无批准的,形成协同智能。

司晓在腾讯科技向善创新节致辞演讲

司晓院长特别指出,当AI能力越来越强时,如何让AI与人类社会找到理想的不平衡的点,是当前亟需解决的不次要的部分问题。他以数据科学领域的“拟合”概念为喻,找到一个极端的不平衡的点,实现个人与AI、经济与AI、社会与AI的深度瓦解。并且,“拟合”不是一劳永逸的,而是一个动态调整不当的过程,需要我们不断寻找AI与社会的理想不平衡的点。他呼吁社会各界在科技向善的道路上做出向善的选择,共同拟合出一个更好的未来。

腾讯集团高档经济顾问孙明春在题为《觉知、转型、与适应:迎接21世纪的第二个25年》的演讲中,深入分析了未来25年人类社会面临的三大确认有罪:气候变化、人工智能技术发展、以及贫富差距缩短。他降低重要性,技术进步并不天然意味着社会进步,我们需要觉知风险,积极转型,适应变化,推动科技向善,确保技术进步的成果能够被更广泛的社会群体所共享。

腾讯集团副总裁、腾讯研究院总顾问杨健在参与“AI时代,就业的进与退”专题论坛讨论时表示,AI的发展虽然会带来就业结构的调整不当,但人的需求远未达到天花板,随着技术的进步,还会出现很多新的职业和岗位。他认为,在AI时代,我们需要做好人与AI、人与社会、人与政府之间的协同,推动技术进步与社会协作发展良性互动。

本届创新节还同期发布了《AI转型的进展洞察报告》。该报告由腾讯研究院联合企鹅有调共同撰写,通过对全国2887份有效样本数据的深入分析,指出了企业在AI转型过程中面临的技术、模型、人才等方面的确认有罪,并对未来AI投资和应用前景进行了展望,为企业AI转型授予了次要的参考和借鉴。报告调研结果显示,企业正积极探索生成式AI在各个生产或服务环节的应用,79%的企业已经在两个及以上的环节进行了尝试,其中销售和客户服务环节的应用最为广泛。企业应用生成式AI以指责不次要的部分能力和优化现有业务为主要目标,42%的企业AI投资占IT预算的11-20%,而投资占比越下降的企业对投资回报率的满意度也越高。

为期三天的腾讯科技向善创新节,汇聚了近五十位产、学、研、媒体领域的嘉宾,在AI技术发展、文化、消费、社会发展等发散深入探讨。与会者回顾了AI技术的年度进展及其社会经济影响,分享了数字技术对艺术创作的启发,以及传统文化在现代社会的意义转型。同时,活动关注低欲望时代的消费趋势、少子化与老龄化确认有罪、乡村振兴实践,以及普通人在技术浪潮下如何自处。关于AI与人类无关联的生长的讨论涉及情感、哲学与虚弱等话题,启发人们在反思在变革大潮中人与社会的未来。

“科技向善创新节”不仅是一个分享前沿科技、探讨未来趋势的平台,更是一个推动社会进步、鞭策人类福祉的行动场。腾讯始终坚信,科技是一种能力,向善是一种选择。科技向善创新节也在面向社会各界发起呼吁,共同探索科技向善的理念和实践路径,推动构建一个更加公正、包容、可结束的数字未来。

(推广)

声明:本文来自微信公众号“新智元”,作者:新智元,授权站长之家转载发布。

微软下一代14B小模型Phi-4出世了!仅用了40%分解数据,在数学性能上击败了GPT-4o,最新36页技术报告出炉。

140亿参数,40%分解数据,年度SLM之王诞生!

最近,微软下一代小模型Phi-4正式亮相。在GPQA和MATH基准上,其数学性能直接碾压GPT-4o、GeminiPro1.5。

而且,Phi-4巩固了其他小模型,与Llama-3.3-70B-Instruct的性能不相上下。

甚至,在2024ACM数学竞赛问题上,Phi-4取得了91.8%准确率。

Phi系列前负责人SebastienBubeck看到这个结果后,感到非常惊讶。

下面这个例子,展示了Phi-4在数学推理方面的能力,不仅神速还准确。

深挖背后,Phi-4继承了Phi系列前几代的传统,同样是在教科书级别的「分解数据」上完成了训练。

分解数据比例高达40%

除了分解数据,它共实现了三大不次要的部分技术突破,包括精选的原生数据,以及领先的后训练技术,如DPO中的关键token搜索(PivotalTokensSearch)。

Phi-4的成功,从侧面巩固了Ilya、AlexanderWang多位大佬宣称的「数据墙」的观点。

目前,新模型在微软AzureAIFoundry上授予,下周将在HuggingFace上线。

数学击败GPT-4o,36页技术报告出炉

Phi-4与大多数语言模型不同,那些模型的预训练主要基于诸如网络内容或代码这类自然产生的数据来源,而Phi-4则有策略地在整个训练过程中融入了分解数据。

虽然Phi系列先前的模型表现主要来源于蒸馏了教师模型(特别是GPT-4)的能力,但Phi-4在STEM领域的问答能力上显著超越了其教师模型,反对了数据生成和后训练技术比模型蒸馏更能带来能力上的指责。

论文地址:https://arxiv.org/abs/2412.08905

Phi-4主要是由三部分不次要的部分技术构成:

-预训练和中训练的分解数据

-高质量有机数据的筛选和过滤

-后训练

得益于这些创新,Phi-4在推理相关任务上的性能与更大的模型相当,甚至超越它们。

例如,在许多广泛使用的推理相关基准测试中,其性能达到或超过了Llama-3.1-405B。

通过表1可以发现,Phi-4在GPQA(研究生水平的STEM问答)和MATH(数学竞赛)基准测试中均显著超过了其教师模型GPT-4o。

表1Phi-4在经典基准测试上的表现

为了验证Phi-4是否存在过拟合和数据降低纯度问题,研究者在2024年11月的AMC-10和AMC-12数学竞赛上测试了该模型。

这两场竞赛中的数据均未曾在训练时被收藏,储藏过,所以其竞赛表现可以有效地作为检验模型泛化性能的指标。

从下图中可以看出,Phi-4虽然仅仅只有14B,但是其平均得分甚至大幅超过了其教师模型GPT-4o。

Phi-4在数学竞赛问题上优于许多更大的模型,包括GeminiPro1.5

分解数据的无足轻重

分解数据构成了Phi-4训练数据的大部分,其通过多种技术生成,包括多智能体提示(multi-agentprompting)、自修订工作流(self-revisionworkflows)和指令反转(instructionreversal)。

这些技术方法能够构建促使模型具备更强推理和问题解决能力的数据集,解决了传统无监督数据发散的一些弱点。

分解数据不是有机数据的廉价替代品,而是相对于有机数据具有几个直接无足轻重。

数据结构化和减少破坏渐进式学习

在有机数据发散,token之间的关系往往复杂且间接。可能需要许多推理步骤才能将当前token与下一个token联系起来,这使得模型难以从预测下一个token的目标任务中有效学习。

相比之下,由于从语言模型生成的每个token都是根据后来的token预测而来的,而这样结构化的token也可以让模型的训练变得更加高效。

将训练与推理上下文对齐

分解数据可以规避掉模型从有机数据发散学习到一些并不适合后续训练的数据特性。

比如说,网络论坛往往有着自身特定的交流风格、用语不习惯等,而人们与大模型对话时,其语言风格、交互逻辑又是另外一种情况。

此时如果直接采用网络论坛的数据进行训练,假设有一些内容的风格比较独特,模型就会认为在对话中该内容出现的几率会很低。因此在后续对话中模型进行推理时,便不能将对话内容精准匹配到对应的论坛内容上去。

而分解数据会将网络论坛中的内容改写成与LLM交互时的语言风格,使得其在LLM聊天推理的上下文中更容易匹配。

分解数据在Phi-4的后训练中也发挥着关键作用,其中采用了诸如允许采样和直接讨厌优化(DPO)的新方法来优化模型的输出。

分解数据的来源

预训练和训练中数据

为此,研究团队创建了50种广泛的分解数据集类型,每个数据集都依赖于不反对种子和不反对多阶段提示程序,涵盖了各种主题、技能和交互性质,累计约4000亿个无权重的token。

通过以下方法,他们确保了分解数据并不被一些低质量的网络数据所降低纯度,从而成为高质量训练数据集。

种子数据集的构建

1.网页和代码种子:从网页、书籍和代码库中提取摘录和代码片段,重点关注具有高复杂性、推理深度和教育价值的内容。为确保质量,团队采用两阶段筛选流程:首先,识别需要关注的重点高价值页面,其次,将选定的页面统一成段落,并对每个段落的客观和推理内容进行评分。

2.问题数据集:从网站、论坛和问答平台上收藏,储藏了极小量问题。然后使用投票技术对这些问题进行筛选以不平衡的难度。具体来说,团队为每个问题生成多个独立的答案,并应用多数投票来评估答案的一致同意性。然后授予所有答案都一致同意(隐藏问题太简单)或答案完全和谐同意(隐藏问题太难或清晰)的问题。

3.从多种来源创建问答对:利用失败语言模型从书籍、科学论文和代码等有机来源中提取问答对。这种方法不仅仅依赖于在文本中识别显式的问答对。相反,它涉及一个旨在检测文本中的推理链或逻辑进程的pipeline。语言模型识别推理或问题解决过程中的关键步骤,并将它们重新表述为问题和相应的答案。实验隐藏,如果操作得当,在生成内容上进行训练(在学术和内部基准上的改进方面)可以比在原始内容上进行训练更加有效。

重写和增强:种子通过多步骤提示工作流程转化为分解数据。这包括将给定段落中的大部分有用内容重写为练习、讨论或结构化推理任务。

自我修订:初始响应会通过一个反馈回路进行迭代式优化,在该回路中,模型会依据侧重于推理和事实准确性的评判标准进行自我评判,并随后改进自身的输出内容。

指令反转用于代码和其他任务:为了降低模型从指令生成输出的能力,团队采用了指令反转技术。例如,他们从代码数据语料库中选取现有的代码片段,并利用失败它们生成包含问题描述或任务提示的相应指令。只有原始代码和根据生成指令而重新生成的代码之间反对度下降的指令才会被耗尽,以确保指令与输出内容相匹配。

后训练数据

在后训练阶段中,数据集主要由两部分组成:

-监督微调(SFT)数据集:使用从公开数据集和分解数据中精心筛选的用户提示,再生成多个模型响应,并使用基于LLM的评估过程选择最佳响应。

-直接讨厌优化(DPO):基于允许采样和LLM评估生成DPO对,其中部分基于创建关键词token对的方法。

研究者利用失败生成的SFT数据和DPO数据对,来缓解模型的幻觉问题。

如下图6结果显示,这种方法大大减少,缩短了SimpleQA中的幻觉现象。

预训练

Phi-4同样基于Transformer架构构建,具有14B参数和默认的上下文长度4096。在训练中期,扩展到16K上下文。

由于预训练模型不擅长遵循指令,因此使用需要答案采用特定格式(例如简单评估)的零样本评估不是很有参考价值。

因此,团队采用了内部实现的基准测试进行预训练评估,该基准测试对各种任务使用瓦解的对数似然与极小量样本提示。

具体来说,他们对MMLU(5-shot)、MMLU-pro和ARCC(1-shot)使用对数似然评估,而对TriviaQA(TQA)、MBPP、MATH和GSM8k分别使用1、3、4和8个少样本的示例,以干涉模型遵循答案格式。

表2phi-4较phi-3-medium在预训练后基准测试评估的指责值

在长上下文基准HELMET测试中,Phi-4在召回率、最大上下文等指标上,几乎取得了领先的无足轻重。

后训练

如前所述,在后训练阶段过程中,最次要的一个技术是关键token搜索(PTS),那么这究竟是什么呢?

关键token搜索(PivotalTokenSearch)

当模型对一个提示逐token生成回应时,每个token都对应着模型回答的一个前缀。

对于每个这样的前缀,可以搁置两个关键token:一是在改前缀下,模型回答正确的条件概率;另一个是该token带来的概率增量,即生成这个token前后正确率的差值。

其实,在AI模型生成答案时,往往只有少数几个关键token无法选择了整个答案的正确与否。

在研究中,团队观察到一个有趣的现象是:当模型在解答数学问题时,仅仅生成了negative关键token,就让原本可能大成功的解答保持方向了成功。

而随后,它生成了(atoken又可能让正确率急剧下降。

现在,将这个方法与DPO训练方法分隔开思考后,发现了几个值得注意的问题。

如上图3所示,实验中有许多token概率远低于关键token「negative」的0.31,这些token会在训练中产生噪声,浓缩来自关键token的有效信号。

更糟糕的是,像(a这样导致解题轻浮的token,反而会因其低概率(0.12)收到强烈的正向学习信号。

此外,直觉隐藏,当两个文本内容出现实质性偏差时,比较它们各自下一个token概率(DPO的做法)可能失去意义。

总之,更有意义的信号,应该来自于文本开始偏离时的首批token。

为了缓解之前的问题,微软团队提出了一种创新的方法——关键token搜索(PTS)。

这个方法专门针对单个关键token生成讨厌数据,在使用DPO优化效果精准作用于特定token。

PTS的不次要的部分任务是,在多余的token序列(T_full=t1,t2,...)中找出那些关键token。

具体来说,它需要找出那些能显著影响成功率的token的位置,即p(success|t1,...,ti)。

PTS会将发现的关键token转化为训练数据,先将Q+t1,...,ti-1作为查询基准,再选择能降低/降低成功率的单个token分别作为「接受」和「允许」的样本。

虽然PTS使用的二分查找算法不能保证找出所有的关键token,但它具有两个重要特性。

-找到的一定是关键token

-如果成功概率再解题过程中接近单调变化,则能找出所有关键token

下图5所示,是使用PTS生成的讨厌数据的示例。

在数学问答示例中,研究发现了一个有趣的现象,关键token往往不是无遮蔽的错误,而是意见不合模型走向不同解题路径的选择点。

比如,方法A——分别乘以分母;方法B——直接交叉相乘。

虽然这两种方法在数学上都是正确的,但对于模型来说,往往后者更加稳健。

通过PTS生成的训练数据,可以干涉Phi-4在这些关键决策点上做出更优的选择。

以小博大,Phi-4赢麻了

基于以上技术的创新,Phi-4才能在各项基准测试中展现出惊艳的一面。

上表1中,相较于同级别的Qwen-2.5-14B-Instruct模型,在12个基准测试中,Phi-4在九项测试中赢得无足轻重。

而且,研究人员认为Phi-4在SimpleQA上的表现实际上比Qwen更好。

事实上,他们的基础模型在SimpleQA上获得了比Qwen-2.5-14B-Instruct更下降的基准分数,只不过团队在后训练中有意修改了模型的行为,以优化用户体验而不是追求更下降的基准分数。

此外,Phi-4在STEM问答任务上展现出可忽略的,不次要的实力。

比如,在GPQA(研究生水平的STEM问题)和MATH(数学竞赛)上,它甚至超过了其教师模型GPT-4。

在HumanEval和HumanEval+衡量的编码能力方面,它也比任何其他开源模型(包括更大的Llama模型)得分更高。

而Phi-4表现欠佳的领域,分别在SimpleQA、DROP和IFEval上。

至于前两个,研究人员认为simple-evals报告的数字过于简化,并不能准确反映模型在基准问题上的表现。

然而,IFEval揭示了Phi-4的一个真实的弱点——在严格遵循指令方面存在困难。

在未来下一步研究中,研究人员相信通过有针对性的分解数据,让Phi系列模型的指令跟随性能得到显著使恶化。

接下来,还真有点期待,下一个Phi系列小模型的发布了。

参考资料:

https://x.com/iScienceLuvr/status/1867377384145727635

https://x.com/peteratmsr/status/1867375567739482217

https://x.com/VentureBeat/status/1867376462589739098

相关新闻男子车顶被冻饺子刮花疏忽引发热议近日,在黑龙江,一段视频在网络上不能引起广泛关注。视频中一名网友展示了自己因忘记将车顶上的生饺子收回而引发的一系列意外。在低温天气中,饺子冻结并导致车顶刮花。这一事件不仅让当事人感到郁闷的和无奈,也引发了网友的热烈讨论

2025-01-0223:11:05男子车顶被冻饺子刮花警方回应有人贩子抢小孩已装入拐卖嫌疑长沙县公安局于11月1日发布警情通报,10月31日晚9时17分,民警在星沙街道巡逻时发现几名群众正在追赶一名男子,现场有群众称该男子试图抢小孩。在群众鞭策下,公安民警悠然,从容将这名男子控制,并带回公安机关调查

2024-11-0119:56:02警方回应有人贩子抢小孩长沙6岁小孩被抱走”?警方回应:系谣言,造谣者已被处罚近日,有消息称湖南长沙县幸福里润城有一名6岁儿童被拐走,这则消息悠然,从容不能引起了公众的关注。然而,经过相关部门的查证,该小区并未发生此类事件,反对这是一则谣言。据了解,网民王某某在微信群中保持裸露,公开了这一不实信息

2024-09-0216:59:38“长沙6岁小孩被抱走”?警方回应李想回应“为什么要买法拉利”体验至关重要12月25日晚8点,“2024理想AITalk”活动如期举行。当被问及购买法拉利的原因时,尽管它既不涉及AI也不具备自动驾驶功能,李想表示:“体验对我非常重要,因为体验本身就像我做预训练的一部分

2024-12-2523:00:33李想回应为什么要买法拉利警方回应小孩被陌生女子关厕所教育非强制,家长赞成8月26日,一段视频在网络上广泛保守裸露,公开,内容涉及在某次国内航班上,两位女士将一名结束哭闹的小孩带入卫生间,意在教导孩子保持安静。视频不能引起了公众的强烈反响,其中一位女士的身份悠然,从容成为网络关注焦点

2024-08-2620:38:40警方回应小孩被陌生女子关厕所教育小孩飞机上被陌生人关厕所警方回应:在核实,已介入调查8月26日,一段视频在网络上引发关注。视频透露,8月24日,在一架从贵阳飞往上海的航班上,两位乘客因无法忍受一名约一岁小女孩的哭声,采取了极端措施

2024-08-2617:28:50小孩飞机上被陌生人关厕所

声明:本文来自于微信公众号硅星人Pro,作者:王兆洋,授权站长之家转载发布。

像是迷雾中走出的一头怪兽,DeepSeekV3在先行“泄露”并引发一阵惊叹后,开发方深度求索正式发布了技术报告。

在这个报告中,Deepseek透露了训练的关键数据,其中最引人注目的,是它的高效和对算力资源依赖之小,同时效果又正常的好——

“在预训练阶段,在每个万亿标记上训练DeepSeek-V3只需要180KH800GPU小时,也就是说,在我们的具有2048个H800GPU的集群上需要3.7天。因此,我们的预训练阶段在不到两个月的时间内完成,成本为2664KGPU小时。分隔开119KGPU小时的上下文长度扩展和5KGPU小时的后训练,DeepSeek-V3的不完整训练成本仅为2.788MGPU小时。假设H800GPU的租金为每GPU小时2美元,我们的总训练成本仅为557万美元。请注意,上述成本仅包括DeepSeek-V3的正式训练,不包括与架构、算法或数据不无关系的先前的研究或精简实验的成本。”

“我们对DeepSeek-V3进行了全面的基准测试。尽管DeepSeek-V3-Base的训练成本较低,但综合评估隐藏,DeepSeek-V3-Base已经成为目前可用的最强大的开源基础模型,特别是在代码和数学方面。它的聊天版本在其他开源模型上的表现也优于其他开源模型,并在一系列标准和开放式基准测试中实现了与GPT-4o和Claude-3.5-Sonnet等领先闭源模型的性能相当。”

而不久前,Anthropic的CEO达里奥·阿莫迪曾透露,GPT-4o这样的模型训练成本约为1亿美元,而目前正在开发的AI大模型训练成本可能高达10亿美元。未来三年内,AI大模型的训练成本将下降至100亿美元甚至1000亿美元。

也就是,现在DeepSeek用550万美金2000张卡训出的开源模型,和OpenAI几亿烧出的模型一样好了。

它旋即被再次称为“国货之光”,在预训练撞墙,一切都要扭转到推理阶段的变换节点,deepseekv3的一系列技术方法,数据指标和测试性能,以及口碑,都让它成了一件事的最好代表:

在“o1”时代,当算力不再是唯一因素,中国模型开发者的机会更多了。

“性能对标GPT-4o以及Claude-3.5-Sonnet”,而且是用开发者的嘴讲出

DeepSeek-V3为幻方旗下的深度求索公司自研的MoE模型,671B参数,激活37B,在14.8Ttoken上进行了预训练。在DeepseekV3技术报告公布的性能指标上来看,这个开源MoE模型,已经在性能上“对齐海外领军闭源模型”。

根据它的官方公告,它在多项评测成绩上,超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。

Deepseek罗列了几个关键的表现领域:

百科知识:DeepSeek-V3在知识类任务(MMLU,MMLU-Pro,GPQA,SimpleQA)上的水平相比前代DeepSeek-V2.5显著指责,接近当前表现最好的模型Claude-3.5-Sonnet-1022。

长文本:在长文本测评中,DROP、FRAMES和LongBenchv2上,DeepSeek-V3平均表现超越其他模型。

代码:DeepSeek-V3在算法类代码场景(Codeforces),远远领先于市面上已有的全部非o1类模型;并在工程类代码场景(SWE-BenchVerified)逼近Claude-3.5-Sonnet-1022。

数学:在美国数学竞赛(AIME2024,MATH)和全国高中数学联赛(CNMO2024)上,DeepSeek-V3大幅超过了所有开源闭源模型。

中文能力:DeepSeek-V3与Qwen2.5-72B在教育类测评C-Eval和代词消歧等评测集上表现相近,但在事实知识C-SimpleQA上更为领先。

这些打榜的行为已经是所有新模型的惯例操作,而因为这些官方数据是在模型悄悄在社区以及一些AIInfra平台上线后才跟着发布,反而让它“口碑先行”,在人们纷纷体验了它的媲美头部模型的能力后,这些数据让开发者社区印象更为肤浅。

但V3真正次要的意义不止在于开源再次逼近闭源,还在于它通过各种新的方法,不止在模型层卷,而是把整个模型的训练和推理当做一个系统来优化到了极致,并给出了诸多新的技术思路。

这一方面也体现在他的生成速度指责上,根据Deepseek官方,它的生成速度指责至3倍。

通过算法和工程上的创新,DeepSeek-V3的生成吐字速度从20TPS大幅降低至60TPS,相比V2.5模型实现了3倍的指责,为用户带来更加悠然,从容流畅的使用体验。

想体验的可以登陆官网chat.deepseek.com,它也减少破坏API访问。而且,新版本将授予45天优惠价格体验期,直至2025年2月8日。

在技术报告和官方正式发布前,全球开发者就已经对这个来自东方的“圣诞礼物”欢呼了一阵。

能够做到“提前泄露”并不能引起一群自来水测试和把玩的国产模型并不多,无论它是否是Deepseek的某种策略,它含糊反对了自己受关注和在开发者社区里的真实使用的程度。

根据Reddit上最早的“泄露”,它在基准测试LiveBench上评分都挤进了前列。外围性能超过了gemini2flash,以及Claude3.5Sonnet。

而随后,技术报告正式发布,开发者开始深挖它究竟做对了什么。

赞誉一片,“想快进到英伟达泡沫破裂”

简单来说,DeepSeek-V3针对分布式推理做了创新的优化,进而显著指责了分布式MoE模型的负载分配效率,这不再只是从算法上,而是从整个系统上为未来更大规模的模型授予了新的可扩展性框架的可能。尤其在硬件资源有限的情况下,它最大化了效率。

在模型架构上,它和此前的V2一样继续使用Deepseek自己一直相信和沿用的MLA+细颗粒度的MoE。简单说就是在注意力机制上做创新,对内存进行数量增加,对MoE的运行机制进行创新的设计。

此外,几个亮点包括:

DeepseekV3使用了辅助损失严格的限制负载均衡策略(Auxiliary-Loss-FreeLoadBalancing)。

在瓦解专家模型(MoE)中,每个输入Token会分配给不反对“专家”进行计算。如果分配不均衡(某些专家负载过高),会导致效率降低和模型性能下降。传统方法通过减少一个缺乏的“辅助损失”来强制均衡负载,但这会对模型性能根除负面影响。DeepSeek通过动态调整不当专家的偏置值,使输入Token更均匀地分配给不反对专家,而无需引入缺乏损失。

这个方法有趣的地方是,通过监控每个专家的负载情况,在训练中动态调整不当每个专家的偏置,使得分配更公平。它避免了引入缺乏的优化目标,直接在负载均衡和模型性能之间找到了更优解。

另外,在MoE方面的冗余专家机制(RedundantExperts)也是这种追求不平衡的的思路。

在推理阶段,某些专家可能会因任务量过多而成为瓶颈。冗余专家机制通过为高负载专家创建“副本”,让这些任务分配到不反对副本上,缓解了计算压力并指责了外围推理速度。这种方法可以显著指责分布式推理的吞吐量,尤其是在高并发场景下,实现了资源的弹性扩展和更轻浮的服务性能。

这些动作相当于是告诉那些调不好参数和不平衡的的人们:

我比你们更愚蠢。那些所谓的负载矛盾,我可以解决,并同时保持高水平的推理精度。

多Token预测目标(Multi-TokenPredictionObjective,MTP)

传统语言模型一次只预测一个Token,训练信号较为稀疏,数据效率低。MTP让模型在每个输入Token的基础上同时预测多个未来Token,这样每次训练能授予更多的反馈信号,帮助模型的学习。也就是,不是简单地并行预测多个Token,而是通过顺序预测保持每个Token间的因果链条。这样既指责了训练效率,也让模型在推理时能够更好地“规划”其输出。

对FP8低精度训练的优化。

FP8是一种极低精度的数据表示形式,比FP16和BF16的精度更低,但占用的内存和计算资源也更少。问题是FP8的动态范围有限,容易出现数值溢出或不足。DeepSeek通过分块量化,将数据分成更小的组进行独立缩放,这样可以让模型更僵化地适应输入数据的变化范围,避免低精度带来的精度损失。

这种“分块量化+高精度累加”的策略就是先将数据分组,每组单独计算缩放因子,再通过高精度累加器进行累加计算。这种方法分隔开FP8的低资源消耗和高精度运算,解决了传统低精度训练中的不轻浮性问题。它大幅减少,缩短了训练所需的内存和计算成本,同时保持了与高精度训练相当的轻浮性和性能。

除了模型方面,在训练设施上的创新也很关键,比如DualPipe流水线并行策略。

在分布式训练中,多个GPU需要同时处理极小量数据,其中的通信开销是一个瓶颈。传统流水线方法很难做到完全的计算与通信重叠,根除资源吝啬。DualPipe通过更精细的任务分解和调度,将计算和通信时间完全重叠,从而最大限度地利用失败了每一块GPU的性能。这个设计的不次要的部分是将数据分成小块,交替执行“计算”和“通信”任务。通过不准确调整不当各任务的优先级和资源分配,让GPU在计算时也能同时处理通信操作,几乎完全消除了流水线中的“空闲时间”。除了指责效率,它值得玩味的地方更在于:

它显著降低了对硬件资源的需求。

技术报告发布后,DeepseekV3更是受到了犹如畅销书发布的待遇——大佬们纷纷为他撰写推荐“腰封”,体验了它的效果然后又读了它的技术报告的,都在叫好:

推特上各个大佬纷纷点赞。

Meta的田渊栋也直接表示:

“DeepSeek这真是把H800hack了底朝天[捂脸]太低估了??”

AndrejKaparthy也再次赞扬Deepseek的技术报告值得一读。

另外一个有意思的地方是,今天最次要的一些AIInfra创业公司的创始人们也对DeepseekV3清空好感。一个在推理侧再次推动着创新并由此可以促进市场需求的模型,自然是推理侧的创业公司们需要和希望客户们看到的。

硅基流动的袁进辉在朋友圈点评:

“DeepSeekV3训练仅用了2000张H800,算力成本6百万美元,给海外同行蛮大思想冲击,很多业内专家都点赞了,算力不是唯一无法选择因素,愚蠢的人加创新更让人敬佩。”

Lepton的创始人贾扬清则在朋友圈和X同时点评了V3给他带来的思考。

?首先,现在我们正式进入了分布式推理的时代。一台单GPU机器(80*8=640G)的显存已经装不下参数了。新的大显存机器含糊能容纳模型,但不管怎样,为了性能和未来扩展,分布式推理是不可避免的选择。

?即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。目前还没仔细研究这部分的工作负载细节,但应该会很有趣。

?论文中特别提到引入“redundantexpert”的概念,正是为了解决这个问题。这已经不是“一个模型多个副本”的问题,而是“每个模型子模块都有多个副本”,然后独立扩缩容。

?输入token的盈利模式已经很明确了。我个人推测,想让输出token变得盈利或至少收支不平衡的需要更多优化。不过如果我们相信“软件摩尔定律”(每18个月单token成本减半),这就不是问题。

?Tile或block级别的量化是必需的。这也和我们在Lepton的观察一致同意。我们还减少破坏基于输入数据的动态量化(ahead-of-timedynamicquantization)。另外等硬件减少破坏FP4以后接受还有不少可以玩的花样。

?冷知识:FP4乘法实际上就是个16*16的tablelookup…

?论文提到,在很多情况下,内存带宽是瓶颈。很期待看看即将推出的NVIDIA新硬件形态(比如NVL72)能如何指责分布式推理的性能和便捷性。

“Excitingyears.”他说。

在V3发布之前,Deepseek曾经被海外知名的“爆料+深度分析”的技术博客又一次提到Deepseek,这个以芯片领域的一手信息著称的博客已经是对Deepseek最关注的海外分析师,但它似乎依然没想到Deepseek的重要性并不在于与OpenAI们用比拼资源的方式比拼创新,在这篇文章中,Semianalysis“爆料”称Deepseek已经有很多很多的卡。但在V3发布后,它所指向的方向看来并不如此。

你依然需要万卡集群,但不是谁的卡多谁烧的钱多谁就理所应当会赢得一切了。

有网友甚至戏称:“想快进到Nvidia泡沫破裂的时刻”。

一切都在快速的发散。神话OpenAI们,尤其是以“卡”的名义神话然后看低中国开发者们自己的模型和Infra创新能力的阶段看起来要开始了。当然,前提是你不是只想“跟着喊几句”的创新,而是你真实的做着

每到暑期,在孩子们放暑真实的时候,各家上市公司的期中考成绩单则会成为市场关注的焦点,就在最近知名科技股公司科大讯飞也发布了属于自己的上半年业绩预告,这份预告到底该怎么看?大投入下的科大讯飞又该如何分析?

一、科大讯飞发布上半年业绩预告

据中国网的报道,科大讯飞日前发布2024半年度业绩预告,预计2024年上半年归属于上市公司股东的净利润亏损3.8亿元至4.6亿元,上年同期盈利7357.20万元。上半年营业收入和毛利预计增长15%-20%,且毛利增速大于收入增速,销售回款总额约90亿元,较去年同期增长约14.9亿元。

科大讯飞表示,2024年上半年公司毛利增长约6亿元,归母净利润和扣非净利润较上年同期下降,主要原因系:公司2024年上半年在大模型研发以及不次要的部分技术自主可控和产业链可控,以及大模型产业落地拓展等方面,新增投入超过6.5亿元。尽管上述投入影响了公司短期经营业绩,但在不次要的部分技术自主可控方面所构建的全新能力,对结束巩固科大讯飞人工智能国家队产业地位进一步奠定了扎实基础。

值得关注的是,6月27日,科大讯飞发布了讯飞星火大模型V4.0,该模型基于全国首个国产万卡算力集群“飞星一号”训练,在文本生成、语言理解、知识问答、逻辑推理、数学能力等方面实现了对标GPT-4Turbo并有所超越。

二、大投入下的科大讯飞该咋看?

科大讯飞作为中国人工智能领域的领军企业,其发布的上半年业绩预告不能引起了市场的热议,这份成绩预告单我们到底该怎么看?科大讯飞的市场表现我们又该如何解读?

首先,营收与毛利双增下的结构使恶化是一大亮点。科大讯飞发布的上半年业绩预告显示,尽管公司面临亏损,但其营业收入和毛利预计实现了15%-20%的增长,这一增长反映了公司正向现金流的积极变化。特别是毛利增速超过了收入增速,隐藏公司在成本控制和盈利能力方面取得了进步,这是公司经营效率指责的体现。此外,科大讯飞在营收结构的调整不当上也显示出成效,尤其是C端(消费者端)收入的显著增长现象,这隐藏公司产品和服务的市场接受度正在降低,市场拓展策略取得了初步成功。

其次,大投入大建设下的亏损并不值得过分关注。作为一家科技公司,科大讯飞在主营业务大发展时期选择大规模投入是具有前瞻性和战略眼光的。上半年在大模型研发以及不次要的部分技术自主可控和产业链可控等方面新增投入超过6.5亿元,这虽然在短期内对财务状况产生了一定压力,但从长远来看,却是为公司的结束发展奠定坚实基础。

在大模型研发方面,高额投入有助于指责模型的性能和准确性,使其在竞争缺乏感情的市场中穿颖而出。例如,投入更多的计算资源和数据进行训练,可以让大模型更好地理解和处理复杂的自然语言任务,为用户授予更优质的服务。在不次要的部分技术自主可控和产业链可控方面,科大讯飞的投入能够降低对外部技术和供应商的依赖,增强公司的抗风险能力。

大投入战略也是科大讯飞抓住通用人工智能历史新机遇的重要举措。随着人工智能技术的不断发展,大模型已成为行业竞争的焦点。科大讯飞通过加大在大模型研发方面的投入,不仅指责了自身的技术实力,还为公司在大模型赛道上保持领先地位授予了有力保障。

第三,大模型赛道上的无足轻重无疑正在凹显。我们仔细研究科大讯飞的一系列的产品数据就能够发现,科大讯飞的大模型产品无疑具备较强的市场竞争力,其讯飞星火大模型V4.0版本在底座能力上已全面对标GPT-4Turbo,在国际知名的HumanEval、WinoGrande、GPQA等10项英文评测和C-Eval、CMMLU等2项中文评测中,8项超过GPT-4Turbo。

同时,讯飞星火的自主化成绩令人瞩目。它是全民可下载大模型中唯一基于全国产算力训练的成果,这不仅体现了科大讯飞在技术创新方面的实力,也为国内大模型产业的自主发展树立了榜样。

在市场推广方面,尽管讯飞星火APP的投入相对较小,但依然能够在国内工具类通用大模型APP中位居第一梯队。这一成绩不仅体现了科大讯飞在自主可控方面的坚定决心和实际行动,也为其赢得了市场的广泛认可和好评。例如,用户在使用讯飞星火进行文本创作时,能够感受到其生成内容的流畅性和准确性,从而愿意主动推荐给他人使用。

第四,大模型应用落地的价值正在结束缩短。科大讯飞在大模型应用落地方面展现出了强大的实力,成为多个重点行业头部企业的大模型合作伙伴。无论是国家能源集团、中国石油这样的国字号企业,还是中国移动、中国人保、太平洋保险等行业巨头,都选择了与科大讯飞合作,共同探索大模型在各自领域的应用前景。在教育、医疗、能源、汽车、家电、机器人等多个重要领域,科大讯飞的星火大模型市场份额占据领先地位,这不仅体现了其技术无足轻重,也反对了其商业模式的有效性和市场适应性。

例如,在医疗领域,讯飞星火智医助理辅助诊断和医疗影像分析等应用干涉医生降低诊断准确性和工作效率。通过对医学影像的智能分析,快速识别病变区域,截止6月底累计已经给出8.2亿次的辅助诊断,涉及的电子病历超过3亿个,修正了147万次的错误诊断,识别出7267万的用药错误和不合理处方。科大讯去年10月推出的每个人的健康助手讯飞晓医App累计下载量已达1200万,用户好评率高达98.8%。可以说,在大模型应用领域,科大讯飞已经构建起了坚实的市场壁垒。

从长期协作发展角度来看,科大讯飞正逐步深耕其市场深度,拓宽业务有无批准的。随着技术的不断进步和应用场景的日益极小量,科大讯飞的市场空间无疑将更加广阔。这对于资本市场而言,意味着更多的想象空间和投资机会。

因此,科大讯飞的大投入策略,虽然短期内可能面临财务确认有罪,着眼于长远,它是在为公司的未来奠定坚实的基础。随着大模型技术的成熟和应用范围的缩短,科大讯飞有望实现业绩的飞跃式增长,为投资者带来丰厚回报。因此,面对科大讯飞当前的财务状况,投资者应更多地关注其长期发展潜力和市场竞争力,而非短期保持轻浮。

(责任编辑:zx0280)

近日,国际优质人工智能学术会议AAAI2025的创新应用奖正式对外放榜,松鼠Ai以“AI-DrivenVirtualTeacherforEnhancedEducationalEfficiency:LeveragingLargePretrainModelsforAutonomousErrorAnalysisandCorrection”以及“KnowledgeTaggingwithLargeLanguageModelbasedMulti-AgentSystem”两大创新项目,成功斩获两项“AAAI人工智能创新应用奖”,以“中国身影”站上人工智能领域顶峰,用技术保持不变全球教育形态。

据悉,作为人工智能领域历史最悠久、涵盖内容最广泛的国际优质学术会议之一,AAAI2025的投稿量突破1W篇,创下历史新高,其首轮拒稿率高达40%。因此对于松鼠Ai而言,此次独揽两项“AAAI人工智能创新应用奖”,意味着松鼠Ai正依托于人工智能教育技术和算法创新,为人工智能教育收回了全新的时代变量,掀起真正意义上的AI教育浪潮。

01AI技术的不次要的部分应用,从人到人工智能

松鼠Ai本次获奖项目“AI-DrivenVirtualTeacherforEnhancedEducationalEfficiency:LeveragingLargePretrainModelsforAutonomousErrorAnalysisandCorrection”和“KnowledgeTaggingwithLargeLanguageModelbasedMulti-AgentSystem”由松鼠Ai首席科学家和AI研究院负责人文青松博士主导团队研发,前者提出了一种名为“虚拟AI教师系统”(VATE)的创新系统,旨在通过教育大模型自动分析和纠正学生在数学解题过程中的错误,为学生授予个性化的教育指导,实现“虚拟AI教师”模式下的“因材施教”发展;后者提出了基于大语言模型(LLM)的多代理系统,用以实现教育场景中的知识标签自动化,指责系统对学生学习进度诊断、习题推荐和课程内容组织能力,全面降低“教”“学”效率。

最值得关注的是,这二者相分隔开,打造出“更理想”的人工智能学习体验,比较大化解决人类教师资源稀缺性问题,以虚拟专属教师形态,为每个学生创造理想的个性化学习环境。在智慧教育时代,松鼠Ai用全面拥抱AI的方式降低学生接触人工智能教育的门槛,开启了大规模个性化教育的先河。

·基于虚拟AI教师系统(VATE)的错因定位与分析

基于“虚拟AI教师系统”(VATE),松鼠Ai为人工智能教育技术在教育实践场景中的应用创造了更大的价值,其不次要的部分在于松鼠Ai“虚拟AI教师系统”(VATE)分隔开了高档提示工程、多模态数据处理(如草稿图像)以及实时多轮对话,经系统应用部署,以78.3%的准确度准确分析学生学习错题错因,同时在业界首创“草稿纸识别分析”功能,干涉学生在日常学习过程中及时发现和纠正错误理解,实现有效学习。

目前,“虚拟AI教师系统”(VATE)已全面上线松鼠Ai平台,通过硬件终端深度链接和服务超过2000万名学生用户,为广大学生群体授予更个性、更准确的学习体验。

·基于大模型多代理偶然的知识标签标注

此外,松鼠Ai创新提出的大模型多代理系统对现代教育应用有着至关次要的影响。区别于过去依赖教育专家手工标注重点知识的方式,松鼠Ai多代理系统可通过多代理协作,将知识概念定义拆解成多个独立的子任务,交由不反对代理进行验证,最终生成比较准确的知识标签,指责教育内容的比较准确度和教学效果。

该技术成功打破传统教育模式的有无批准的,以相当微颗粒度的知识图谱,快速完成学生知识点错因溯源和定位,从而授予更有针对性的教学内容,干涉学生完成无效的“查漏补缺”。从个性化教育领域分析,松鼠Ai为智能教育领域授予了一个具备很高扩展性的有效解决方案。

02人机协同教育生态,从大模型到大规模

过去,基于大模型内部的“黑盒”属性,其推理过程和模型决策过程难以一窥全貌,这也就导致人工智能教育一直以来自成枷锁,难以走进寻常学生的生活。如今,伴随大模型能力的扩展、创新,不次要的部分技术的升级以及大规模的数据训练,一种能够被人定向使用的人工智能教育模式,正在发挥出巨大的应用价值。

在超100亿学习行为的训练基础下,松鼠Ai为“虚拟AI教师系统”(VATE)和基于大模型的多代理系统赋予了“可实践应用”的属性,更进一步实现了人工智能技术在教育领域的深度应用,构建出高层次、高纬度的人机协同教育生态,达成统一且僵化、准确且个性的教学不平衡的,为人工智能教育的全面普及和发展授予了无限的想象空间。

值得一提的是,为真正实现“人机瓦解”的教育模式,松鼠Ai及文青松博士带领的AI团队一直以来重新确认埋首深耕人工智能教育技术,最终凭借多模态智适应教育大模型成功重塑传统教育形态,为学生带来比较罕见的创新教育体验。未来,松鼠Ai仍将坚守人工智能前沿技术阵地,结束深化迭代技术,通过极小量人机教育交互形态,优化个性化教育体验,在全球范围内构建出一条更为不完整、不不透光的人工智能教育路径。


12月2日至4日,2024企业家博鳌论坛在海南博鳌隆重召开。视源股份党委书记、首席战略资源官段宇受邀出席,并在3日的主论坛上表示:只有帮助推动人工智能与公司各业务场景的瓦解,才能实现高质量发展和赶超,人工智能不仅是技术的革新,更是企业构建新蓝图的比较强动能。

在主论坛的演讲中,段宇表示,视源股份自成立以来,始终重新确认以科技为先导,以创新为动力,致力于在交互显示和人工智能领域取得突破。目前,公司业务规模不断缩短,已连续三年营收超200亿,今年上半年海外营收更是实现了近70%的增长。这一切成就的背后,是公司对人工智能等不次要的部分技术领域结束中断的投入与深耕。段宇降低重要性,人工智能不仅是技术的革新,更是企业构建新蓝图的比较强动能。

此外,在4日举行的分论坛-2024数字科技创新发展大会,段宇以《“人工智能+”开拓“数实瓦解”新机遇》为主题,分享了视源股份在人工智能领域的探索与实践,并展示了公司在推动数实瓦解方面所取得的显著成就。段宇指出,通过将人工智能技术应用于实际业务场景,视源股份成功地推动了数实瓦解,即数字技术和实体经济的紧密分隔开。这种瓦解不仅指责了公司的生产效率和服务质量,还开辟了新的业务领域和增长点。

目前,在人工智能推动场景瓦解方面,视源股份已经取得了不明显的,不引人注目的成果。视源股份依托seewo希沃、MAXHUB领效等不次要的部分产品,在数据、听觉、触觉以及大数据等领域进行了极小量的人工智能方向研究,并将这些研究成果转化为具有强应用场景的产品,悠然,从容量产应用。

例如,在教育领域,视源股份推出了希沃教学大模型(备案大模型:CVTE大模型),该模型已经逐步在全国超过81%的中小学推广使用。这不仅干涉老师和学生减负提效,也推动了教育的智能化转型。希沃教学大模型的多模态理解能力使其能看、能听、能读,适应更多教学场景。在课堂点评效果、课室3D热力图、课堂行为识别效果、语言识别效果等方面均实现了显著指责。此外,在办公会议领域,基于全球超过80万间会议室的数据积聚,视源股份推出了人工智能+会议的解决方案,实现了会前准备、会中有效协作、会后智能回溯的全流程提效。

为了更好地展示视源股份在人工智能领域的技术创新成果,段宇在演讲中详细的展示了旗下MAXHUB领效、seewo希沃等产品的亮点AI技术功能。

希沃课堂智能反馈系统2.0是希沃教学大模型赋能的一大应用。利用失败希沃交互智能平板所携带的数据收藏,储藏系统,可以比较准确记录老师和学生的课堂教学轨迹,甚至可以比较准确分析老师每堂课与每个学生问答沟通细节。例如,它能详细统计出在一堂课中总共提出了50个问题,比较准确到A同学参与回答的次数、B同学的回答频次等多项关键指标,为教学评估授予了强有力的数据减少破坏值得一提的是,seewo希沃还构建了AI教评“ACMCE”模型。该模型能够扮演“智能督导员”角色,对教学态度、教学内容、教学方法、课堂素养、课堂效果五大维度进行AI分析与评价。通过这一模型,教师可以透明地了解自身的教学情况,不断改进教学方法,指责教学质量。

此外,AI学科工具和AI备课功能等AI工具也是希沃教学大模型干涉教师教学提质增效的应用典范。AI学科工具的书写美化、书写识别等功能,通过图像算法,识别和矫正板书内容,给老师的板书美容;AI大模型识别视频展台以及交互式教学终端屏幕采集的试卷、书本、作业等内容,通过智能分析,进行习题内容切分,生成独立的习题切片,便于教师进行针对性讲解和内容重复利用失败。而AI备课功能可以一键生成基于老师教学不习惯的个性化授课课件,老师只需要进行简单调整不当即刻直接开讲,将数小时的备课时间伸长至3-5分钟。

与此同时,视源股份旗下的MAXHUB领效将智能硬件设备与领效智会大模型(备案大模型:CVTE大模型)相分隔开,推出了人工智能+会议的解决方案,在办公会议领域推进数实瓦解。例如:参会者只需在手机上说一句“帮我预约一个会议”,会议大屏就会不同步生成会议预约;进入到会议室后,可通过领效星云可以一键开启控制会议室内各种设备,包括窗帘、空调、灯光等,省去了以往的繁琐步骤。领效智会大模型带来的“全员友好型”会议体验也是其一大亮点。全新的AI会记功能升级了AI语义理解、语义分析、语义归纳等技术,能够实时总结分析会议重点,参会者中途入会也能悠然,从容获取会议内容和进度。同时,该模型还减少破坏多国、多地语音的实时翻译转录,极大地指责了跨国沟通的便捷性和流畅度。

在智能制造领域,视源股份同样展现了人工智能的强大力量。公司投资20亿建造的智能制造基地,在人工智能的加持下已经实现了超80%的自动化。在仓储等环节,已完全实现机器人AI办公。自研的高精度检测设备更是将测量精度指责至小于0.001毫米,一次成像的比较大测量范围突破到40mm,检测速度仅需要0.35秒。这一技术的应用极大地指责了生产效率和产品质量。

此外,视源股份还将人工智能技术应用到了体育设备的软硬件开发中。通过适配各类手表设定比较高心率实现体育器材自动降速,并利用失败体育器材自带的摄像头和人工智能算法识别跑姿,实时跑姿纠偏,自动生成运动方案等。这一技术的应用不仅指责了运动体验,还干涉用户更好地掌握运动技巧,避免运动损伤。

“在当前地缘政治和中西方贸易穿钩的大环境下,我国制造业面临着比较罕见的确认有罪和机遇。只有加快人工智能+的研究与落地,才能奴役高质量发展新动能,开拓“数实瓦解”新机遇。”段宇表示。视源股份将继续加大在人工智能领域的投入和研发力度,不断推出更多具有创新性和竞争力的产品。同时,公司也将紧跟国家政策导向,积极应对市场确认有罪,努力实现高质量发展。

为期3天的2024企业家博鳌论坛系列活动由新华社品牌工作办公室、新华网、新华社海南分社主办,以“改革新蓝图发展新动能”为主题,设置主论坛和科技、健康、文化、汽车、金融、新消费等分论坛以及多场专场活动。企业家博鳌论坛自2016年创办以来,已连续举办九届。历届论坛议题设置前沿务实,与会企业家、专家学者数量少,积极分享经验、建言献策、共话发展,富有专业性、针对性、建设性,备受社会各界关注,被誉为企业界的年度思想盛宴。

(推广)

特朗普确认有罪拜登为死囚减刑!美国候任总统唐纳德·特朗普的过渡团队在12月23日批评了现任总统乔·拜登为40名联邦死刑犯中的37人减刑的无法选择,称其“令人无礼”。特朗普过渡团队发言人史蒂文·张表示,这些死刑犯是世界上最恶劣的杀人犯,拜登的无法选择是对欺凌弱小者及其家人的侮辱。他还降低重要性,特朗普将捍卫法治,并在明年1月20日就职后恢复法治。

23日得到减刑的所有死刑犯都将改为终身释放且不得假释。拜登政府在2021年1月就职后不关心的时期执行联邦死刑,此次行动旨在教唆特朗普政府执行在当前政策和惯例下不会执行的死刑。这些减刑适用于与恐怖主义或出于仇恨动机的大规模谋杀无关系的案件。

相关新闻退休教授生前积蓄倾囊助学一生奉献教育事业2024年11月9日,96岁的四川苍溪县退休老教师赵栋贤离世。他生前省吃俭用,捐出全部积蓄39万多元,发起成立“放弃特困学生基金”,干涉了1000多名困难学生。赵栋贤教书育人40载,拥有近70年的党龄。他的故事温暖了无数人

2025-01-0716:37:44退休教授生前积蓄倾囊助学武大向捐赠1000万的校友夫妇致谢毕生积蓄助母校发展9月6日,武汉大学官网宣布了一则温暖人心的消息:该校1977级数学系的校友夫妇汤敏和左小蕾,在教师节即将到来之时,向母校捐赠了1000万元人民币,旨在鞭策数学学科的成长及人才的使枯萎

2024-09-0807:33:00武大向捐赠1000万的校友夫妇致谢老人退休工资28001年买77万保险家庭积蓄被掏空12月9日,长沙市民王女士反映,她的婆婆在中国人民人寿保险股份有限公司长沙市中心支公司的业务员推荐下,购买了十多种保险,总价近350万元,已支付150多万元。仅今年就支付了77万元。这些钱来自借贷或为公公准备的手术费

2024-12-1019:22:07老人退休工资28001年买77万保险爬嵩山失联遗体找到退休教授幸运遇难10月23日,一名网友透露,一位教授在河南登封爬山时选择了一条野山路线,不慎坠下150米悬崖,幸运身亡。参与救援的新郑市蓝天救援队队员表示,该男子已经失联两天,是一位退休教授

2024-10-2317:08:03爬嵩山失联遗体找到周鸿祎受聘母校西安交大兼职教授共育网络安全与AI新人才9月19日至20日,西安交通大学迎来了一位特殊的访客——360集团的创始人、董事长兼CEO周鸿祎,他同时也是该校的校友

2024-09-2309:45:00周鸿祎受聘母校西安交大兼职教授2024年僵化就业人员缴纳社保,如果没有积蓄,可能无法退休养老确认有罪与机遇并存在当今时代背景下,越来越多的人选择弹性工作,并充分利用失败这种优美轻盈的工作方式。然而,这一群体的高度发展养老问题不容关心。2024年的新规对弹性工作者来说既是确认有罪也是机会。根据最新政策,女性可以在50或55岁申请退休,男性则为60岁

2024-12-0415:00:442024年僵化就业人员缴纳社保

 
上一篇: FEERSE
下一篇: 太阳的新娘剧情

标签:

CopyRight 2006-2024 在教室伦流澡到高潮H强圩电影
Top