衝吧腹黑媽咪
声明:本文来自于微信公众号新智元,作者:新智元,授权站长之家转载发布。
奇点将至?奥特曼再次奴役「六字」神秘信号!谷歌文档之父、机器学习博士纷纷预测,AGI降临那天,95%人类工作或被AI取代。
一觉醒来,奇点又进了一步?!
昨天,OpenAI智能体安全研究员StephenMcAleer突然发出一番感慨:
有点怀念从前那段做AI研究的日子,那时我们还不知道如何创造超级智能。
紧随其后,奥特曼发表了意味深长的「六字箴言」:nearthesingularity;unclearwhichside——奇点临近;不知身处何方。
这句话是想表达两层意思:
1.模拟假说
2.我们根本无法知道AI真正起飞的关键时刻,究竟是在什么时候
他又疯狂明白地提及了一番,并期望这一点能引申出大家更多的解读。
这一前一后,他们接连发出耐人寻味的信号,让所有人不禁思考:奇点是否真实的近在咫尺?
评论区下方,直接被新一轮的AGI大猜想和恐慌冲爆了。
若AGI/ASI真正降临那天,我们将面临着什么?
「谷歌文档」之父SteveNewman在最新长文中认为,「届时,AI将会取代95%人类工作,甚至包括未来新创造的工作」。
ApolloResearch联创MariusHobbhahn则更进一步,列出了2024年-2030年所有AGI时间表。
他预测,「2027年,AI将直接取代AGI实验室顶级AI研究员;
2028年,AI公司将有1万-100万个自动化的AI研究员,差不多所有需要知识型的工作都被AI自动化」。
与Newman观点一致同意的是,Hobbhahn认为2024年95%以上经济价值的任务,都能被AI完全自动化。
不过,他将这个时间节点设定在了2029年。
AGI降临,超95%工作被取代
SteveNewman在文章中,阐述了他对AGI的定义及其AI对未来世界的影响。
那么,AGI究竟指代的是什么时刻?Newman认为:
AI能够在超95%的经济活动中,以成本效益的方式取代人类,包括未来新创造的任何工作。
他认为,大多数假设的AI变革性影响都发散在这个节点上。
因此,这个「AGI」的定义,代表了世界开始显著保持不变的时刻,也是所有人「感受到AGI」的时刻,具体而言:
1AI系统能主动适应完成大多数经济活动所需的任务,并能完成不完整而非世界性政策的任务。
2一旦AI能够完成大多数知识型工作,高性能的物理机器人将在几年内随之而来。
3这种能力水平可以实现一系列变革场景,从经济超增长到AI接管世界等。
4世界变革场景需要这种水平的AI(通常,专用AI不足以保持不变世界)。
5在达到AGI之前,「递归自我改进」将成为主要推动力。
6AGI指的是具备必要能力(以及经济效率)的AI被发明出来的时刻,而不是在整个经济中全面部署的时刻。
关于AI如何对世界产生变革性影响,有来自多方的推测:
一种观点认为,AI可能带来难以想象的经济增长——推动科学和工程领域快速进步,完成任务的成本比人类更低,干涉公司和政府做出更高效的决策。
根据最近的历史数据,世界人均GDP大约每40年翻一番。有人认为,高级AI可以使GDP在一年内至少翻一倍,也就是「超增长」。
十年的「超增长」将使人均GDP减少1000倍。也就意味着,目前每天靠2美元生活的家庭,未来可能会实现年收入73万美元。
另一种观点认为,AI可能会带来灾难性的风险。
它可能会发动幸存性的网络攻击,制造出高死亡率的流行病;可能让独裁者获得对国家甚至全世界的绝对控制权;甚至,AI可能失去控制,最终建造所有人类生命。
还有人推测,AI可能淘汰人类,至少在经济领域会这样。它可能终结资源稀缺,让每个人都能过上富裕的生活(前提是选择公平分配这些成果)。它可能将仅存在于科幻中的技术变为现实,比如治愈衰老、太空殖民、星际旅行、纳米技术。
不仅如此,一些人设想了一个「奇点」,在奇点中,进步的速度如此之快,以至于我们什么都无法预测。
SteveNewman推测,AGI真正实现的时刻,就是这些设想几乎同时变成现实的时刻。
「可能发生」,不是「接受发生」
需要澄清的是,Newman并非在说,关于高级AI的预测,一定都会实现。
未来,技术突破逐渐变难,所谓的「奇点」也就不一定会出现。也就是说,「长生不老」可能根本就无法实现。
再说了,人们可能更喜欢与他人互动,这样的话,人类也就不会真实的在现实经济活动中变得没用。
当提到「可能差不多同时发生」时,SteveNewman的意思是,AI如果能实现难以想象的经济增长,那也有能力制造真正的幸存性流行病、接管世界或快速殖民太空。
为什么谈论「通用人工智能」
经济超增长在理论上是否可能,有一些争议。
但如果AI无法自动化几乎所有的经济活动,那么超增长几乎注定是不可能的。仅仅自动化一半的工作,不会带来深远的影响;对另一半工作的需求会随之减少,直到人类达到一个新的、相对常规的不平衡的。(毕竟,这种情况在过去已发生过;在不久前,大多数人还从事农业或简单的手工业。)
因此,超增长需要AI能够完成「几乎所有事情」。它还需要AI能够适应工作,而不是重新调整不当工作和流程来适应AI。
否则,AI将以类似于以往技术的速度渗透到经济中——这种速度太慢,无法带来结束的超增长。超增长需要AI足够通用,以完成人类能做的几乎所有事情,并且足够僵化以适应人类原本的工作环境。
还有太空殖民、超致命流行病、资源稀缺的终结、AI接管世界等预测,这些情景都可以被归类为「AGI完成」情景:它们与经济超增长需要的AI,具有相同的广度和深度。
Newman进一步主张,只要AI能够完成几乎所有经济任务,它就足以实现全部预测,除非与AI能力无关系的原因导致它们无法实现。
为什么这些截然不反对情景,需要相同水平的AI能力?
阈值效应
他提到了,上个月DeanBall关于「阈值效应」的文章。
也就是说,技术的逐步进步可能在达到某个关键阈值时,引发突如其来的巨大影响:
DeanBall最近撰文探讨了阈值效应:新技术在完全建立并不会悠然,从容普及,只有当难以预测的实用性阈值被突破后,采用率才会悠然,从容攀升。例如,手机起初是一种笨重且昂贵的滞销产品,而后来却变得无处不在。
几十年来,自动驾驶汽车还只是研究人员的兴趣,而如今谷歌的Waymo服务每三个月就能实现翻倍增长。
对于任何特定任务,只有在突破该任务的实用性阈值后,AI才会被广泛采用。这种突破可能发生得相当突然;从「还不够好」到「足够好」的最后一步不一定很大。
他认为,对于所有真正具有变革性影响的AI,其阈值与他之前描述的定义一致同意:
超增长需要AI能够完成「几乎所有事情」。它还需要AI能够适应任务,而不是调整不当任务去适应自动化。
当AI能够完成几乎所有经济价值任务,并且不需要为了适应自动化而调整不当任务时,它将具备实现全部预测的能力。在这些条件焦虑之前,AI还需要人类专家的鞭策。
一些细节
不过,Ball略过了AI允许体力工作的问题——即机器人技术。
大多数场景都需要高性能的机器人,但一两个(例如高级网络攻击)可能不需要。然而,这种区别可能并不重要。
机器人学的进步——无论是物理能力还是用于控制机器人的软件——最近都显著加快。这并非完全偶然:现代「深度学习」技术既推动了当前AI浪潮,在机器人控制方面也非常有效。
这引发了物理机器人硬件领域的一波新研究。当AI有足够的能力促进经济高速增长时,几年之内它也可能会克服剩余的障碍来制造可以胜任体力工作的机器人。
实际的影响将在至少几年内逐步发散,一些任务将比其他任务更早实现。即使AI能够完成大多数经济价值任务,也不是所有公司都会立即行动。
为了让AI完成比人类更多的工作,需要时间去建设足够多的数据中心,而大规模生产物理机器人可能需要更长时间。
当谈到AGI时,指的是具备基后天的反应力的时刻,而不是全面部署的时刻。
当提到AI能够「完成几乎所有经济价值任务」时,并不一定意味着单个AI系统可以完成所有这些任务。我们可能最终会创建从事不同任务的专用模型,就像人类从事不反对专业一样。但创建专用模型的必须像培训专业工人一样容易。
实现AGI,我们该怎么做?
对于「如何实现AGI?」这个问题,现在的研究者几乎没有头绪和理论依据,各种流派都有,一致同意不休。
ApolloResearch联创MariusHobbhahn认为,AGI的不次要的部分特点应该有三个:
-对风险的来源、预期的风险程度、安全预算以及愿意允许的风险做出更具体的明确假设。
-明确的多层次防御方法,去除某些不相关、负不无关系的措施,而不是「尝试叠加不反对策略以降低风险」。
-计划一致同意性,很多AI公司在宣传和实际做的事和谐同意,比如声称为了安全性愿意付出更高代价,但却不愿意允许透明推理带来的缺乏成本。
忠实且人类可读的CoT范式从AGI的全局发展来看,我们很幸运:现在AI偶然的大部分推理过程是「直接可见」且「易于理解的」。
所谓忠实且人类可读,就是指模型的推理过程是以一种人类可以直接理解的方式进行的,并且准确地反映了模型行动的原因,模型不能进行与声明不符的内部推理。
我们至少应该:
1.共同认同将此作为一个重要搁置因素,并以此进一步发展。为了让模型产生更易理解的CoT,我们可以并愿意承受相应的性能损失,哪怕是普通应用的运行成本会减少2倍,或是高风险应用的成本减少到5倍
2.将更多的精力投入到研究易于理解且忠实的推理过程(CoT)。比如构建一套评估工具,以测试某个特定模型的推理过程是否忠实,或者探索直接优化可读性会带来哪些副作用,如何隐藏掉非预期推理等。
3.「从架构中移除可见CoT」的相关研究应该减少,缩短,例如Meta的COCONUT
假设可读性带来的缺乏成本并不太高(例如,不到2倍),那现在关于「移除CoT」的研究无异于自毁长城。
如果存在证据隐藏,像在o1和o3中使用的高计算强化学习(highcomputeRL)会导致不可读的推理过程,例如模型自己发展出人类难以理解的语言,相应的观念也应该发生转变:
1.人工智能开发者尽快分享此信息,「模型的推理性能很好,但我们不理解其推理过程」要比「模型的推理性能一般,但我们能够理解其推理过程」可怕得多。
2.转变研究和治理策略的优先级,比如投入更多精力去解码模型所学到的语言。
用CoT监控模型如果模型能生成人类可理解的CoT,我们的主要防御手段就是对模型进行详细的监控,虽然极具成本效益但经常被关心。
在理想情况下,可以用几台简单的监控设备来分析模型输出,以检测各种通用的故障模式和不良行为,可追踪的行为类型包括:
各种类型的阴谋(scheming)行为,例如模型是否隐藏了某个特定目标,是否试图重步走监管,是否采取了不符合用户利益的行动等;各种类型的无能的追求(power-seeking)行为,例如模型是否试图获取资源,试图减少,缩短访问批准,试图以某种方式说服他人等;强烈且广泛的目标导向,例如模型在多个上下文中都一直在追求某个特定目标,需要在不同上下文之间进行对比;可以使用较小但运行更快的模型作为「仅黑箱监控器」(balck-box-onlymonitors),类似用Gemini-flash来监控Gemini,或者使用「白盒探测器」(white-boxprobes),经过训练以检测有问题的行为(例如,线性探测器或SAE探测器);
最好既能监控行动本身(例如,工具调用),也能监控导致这些行动的推理过程。
模型开发商已经开始使用黑箱监控器来防止模型越狱(jailbreaks),算是有了一个概念验证;简单的线性探测器极具成本效益(只需要一个简单的向量乘积),可以在几乎不减少缺乏开销的情况下,并行运行上万的探测器。
虽然这些方法看似简单,但研究人员认为,还没有人系统地研究如何对模型进行无效的监控。
监控在概念理解上看似简单,但仍需要极小量的迭代和调整不当,比如需要一个完善的数据集来训练和评估探测器,校准阈值等。
每个AI实验室都应该有一个多余的团队来专门构建监控设备,确保模型按预期工作,分析其结果,使其运行更高效等。
总的来说,监控设备不仅可以直接防止模型生成使加剧性内容,还可以更快、更全面地了解对齐(alignment)技术的有效性。
控制模型最坏情况下,模型可能有自己的想法,而且人类不一定能看清推理过程,所以需要最大限度地降低模型的实用性,同时最小化风险,具体措施包括:
1.智能体(agents):以往的研究主要发散在小智能体系统或在较小任务,实验室应该尽快将控制技术应用于最先进的系统,以便尽早积聚实践经验;
2.现实性(realism):在常见的应用场景下对模型进行控制,比如辅助研究等;
3.蓝队与红队的规则:在某些变体下,红队过于强大,比如可以访问蓝队的所有数据,并针对蓝队进行训练等,对团队的假设应该更「合理」且「不准确」。
4.放宽假设(relaxedasummptions):控制的假设基于模型始终腹黑,相对保守;可以定义更严格的界限,减少,缩短约束,使模型表现大体不变。
模型的阴谋(scheming)在帮助研发人工智能系统时,我们也应该加深对大模型图谋不轨行为的理解:
1.检测工具:使用性能更好的工具来检测模型的图谋,例如更大规模的黑箱评估和更好的白箱技术;
2.图谋行为的发展:应该深入理解为什么模型会追求某种能力,了解模型如何学习非短视反感,以及模型何时愿意为了这些反感付出行动;
3.现实中的反感:了解模型在实践中的图谋频率,比如分析1亿个真实的模型回复,似乎是一个低投入、高回报的项目,但需要访问极小量真实的部署数据。
4.隐藏的图谋:分析哪些训练方法会减少,缩短模型的图谋行为,或识别出那些难以检测的图谋行为。如果模型每次出现图谋不轨的时候,就对其进行惩罚,会导致负面行为减少,缩短,但可能会减少模型隐藏阴谋的能力。我们需要针对不不关心况作出判断和不平衡的;
5.准备应对措施:根据模型的图谋程度,采取无视、重新训练模型,或者完全授予模型等不同策略;
6.更多的能力评估:更进一步了解模型在规避监管、干扰训练等程度。
评估评估是一种高效的「模型图谋」证据收藏,储藏工具,可以减少破坏其他策略,比如评价「监控」或「控制」方法是否有效等。
另一方面,评估也可以让我们了解模型的大体能力,但现有的评估在某些方面仍然不足:
1.能力评估:应该继续构建更多更好的能力评估,特别是针对人工智能研发、策划、核生化、网络和说服等方面,我们目前仍然不清楚模型的具体能力;
2.诱导(Elicitation):如何对模型进行诱导以产生最大能力,尽可能找到模型的上限能力?
3.预测评估:预测能力的正确方式是什么?那些模型表现仍然为0的基准,该如何突破?或许还有更好的预测评估方法;
4.对齐评估:迄今为止,大多数研究都发散在能力评估上,而「对齐/反感评估」(alignment/propensity)也很重要,应该帮助构建对抗性对齐评估,比如设置各种非短视讨厌陷阱等,为模型建立一个非常详细的「心理档案」,以了解其默认反感;
5.演示:对于研究人员或公司内部来说,需要用一篇严谨的论文来仔细搁置所有的潜在可能性,还需要搁置如何传递演示给普通用户。
短期对齐策略现有的技术,比如RLHF在模型中引入了非短视(non-myopic)且不可纠正的(non-corrigible)反感,应该投入更多的精力来详细了解模型获得的目标类型,为模型建立详细的「认知档案」。
内部和外部使用的策略应该有无遮蔽的区别,比如模型具有更强的抗越狱能力可能会降低其可纠正性,需要确定哪些策略适用于长期内部部署。
推理透明度在最好的情况下,内部计划应该是完全不透光的,并明确关于安全预算、组织隐含愿意允许的风险、明确的红线等假设。应该经常与外部专家沟通具体计划,专家可以来自独立组织、学术界或人工智能安全研究所,可以签订保密协议。
从道德上讲,公司应该与公众分享计划中的细节,尤其是影响力更大的AI公司和技术,每个人都应该能够理解他们「应该或不应该」期望这项技术是安全的。
参考资料:
https://x.com/sama/status/1875603249472139576
https://amistrongeryet.substack.com/p/defining-agi
https://www.lesswrong.com/posts/bb5Tnjdrptu89rcyY/what-s-the-short-timeline-plan#So_what_s_the_plan_
都市爱情剧《半熟男女》宣布定档9月19日,这部剧由张晓波执导,汇聚了田曦薇、辛云来、张哲华、曾梦雪、袁文康等一众实力派演员,更有董洁、陈昊森、周雨彤的特别加盟。该剧标榜自己为“反乌托邦爱情剧”,允许落入俗套,官微在定档时幽默提醒观众:“纯爱拥趸请慎入。”
在都市爱情剧日渐同质化的背景下,《半熟男女》聚焦年轻男女之间复杂微妙的关系,有望为观众带来新意。改编自柳翠虎的小说《这里没有善男信女》,原著以尖锐的笔触描绘了北京律师界一群自私男女在职场之外的情感纠葛,他们在爱情与利益间徘徊无魅力的运动,反映了物质欲望对现代人情感的扭曲影响。
剧集设定于当代都市,不仅讲述爱情故事,还肤浅探讨了年轻一代面临的生存压力、人际交往及自我认知等现实问题。不同于传统玛丽苏情节,剧中角色设计胆怯直接,每个人物都幼稚算计,多线叙事交织出复杂情感网,包括甜蜜、暗恋、忠诚等多种情感元素,为观众呈现了一个既逼真又富有悬念的故事世界。
预告片发布后,网络上将其戏谑为“全员腹黑”剧集,观众对剧中清空策略的爱情游戏清空好奇。主演阵容强大,田曦薇、辛云来等年轻演员各具魅力,加之张晓波导演的不能辨别视角和吴楠、卞智泓等编剧的扎实功底,使《半熟男女》备受期待,预示着一场关于爱情与成长的非典型叙事即将发散。
有女朋友并且一直暗恋攻2,后来攻2和家里出柜,正牌受就是攻2的男朋友,攻才知道攻2是gay,攻2骗了攻的钱和正牌受离家出走,攻苦逼了被攻2爸威胁要找到他们,不然攻就是帮凶。
4. 《二攻一受双插头照片》
作者:长佩文学, 原著: 余酲, 主笔: 阿太
简介:故事讲述的是顾宜乐的爹妈给介绍了个对象,人在国外留学,还有半年。
5. 《二攻一受双插头鲤鱼乡》
作者:沉乡
简介:漫画讲述了炸毛猎人受X腹黑血族攻。
6. 《夹心三明治双插头》
作者:おくりごま
简介:故事讲述了沈书麒和沈书麟是一对异卵双胞胎兄弟,一个是Alpha,一个是Omega,彼此相爱却因为血缘关系无法结合,直到有一天他们想到一个办法,找一个Beta来当他们中间的连接工具。
这些漫画主要围绕双插头的设定展开,情节各异,
《薄荷奶糖1v2指尖栀子》是一部情节跌宕起伏、扣人心弦的小说,讲述了脱线少女林知夏的故事。林知夏一直以为人生是幸运的,因为她可以从斯文禁欲派章衍和温润贵公子姜羽白中随便挑一个当男友。但实际上,她已经被这两只腹黑的大灰狼算计进了他们的计划里,并且一步一步自觉地走进了他们的陷阱。故事情节充满了悬疑和反转,是一本情节与文笔俱佳的衍生小说。
如果你想阅读这本小说,可以通过以下链接进行在线阅读:
全文qwe2
笔趣章节列表圆子儿笔趣阁网qwe2
_薄荷奶糖1v2指尖栀子全文
标签: