您的当前位置: 首页 > 伦理片a在线线版韩国 > 正文

伦理片a在线线版韩国

伦理片a在线线版韩国 时间:2025年04月29日

避免/重新确认/支持来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。

新鲜AI产品点击了解:https://top.aibase.com/

1、OpenAI推出屏幕共享与视频聊天功能,ChatGPT整了个“圣诞老人模式”

OpenAI最近在其高级语音模式中新增了视频聊天和屏幕共享功能,允许用户在移动应用中与ChatGPT进行实时互动。此功能目前对ChatGPTTeams、Plus和Pro用户开放,预计明年1月将扩展至企业版和教育版用户。虽然欧盟及部分国家的用户无法使用,但新功能的推出标志着ChatGPT在交互性和实用性上的重大进步。

【AiBase提要:】

??新增视频聊天功能,ChatGPT可实时响应用户所见内容。

???屏幕共享功能上线,用户可在手机上请求ChatGPT授予干涉。

??“圣诞老人模式”上线,用户可以与原创圣诞老人声音的ChatGPT互动。

2、给力!Anthropic最快模型Claude3.5Haiku现已全面开放

Anthropic公司发布了其最新的Claude3.5Haiku模型,现已向所有用户开放。该模型因其高效性和出色的基准测试表现受到广泛关注,特别适合实时任务和大数据集处理。尽管存在一些功能批准,如不减少破坏网页浏览和图像生成,但其在聊天机器人上的多功能性和与ClaudeArtifacts的集成指责了用户体验。

【AiBase提要:】

??Claude3.5Haiku现已全面开放,减少破坏图片和文件分析功能。

??免费版本受消息不限数量批准,用户可选择20美元的ClaudePro订阅以获得更多权限。

??该模型在多项基准测试中表现优异,适合实时任务和大数据集处理。

3、上海AI实验室推大模型“指纹识别”方法REEF,打击“套壳”行为

在AI时代,保护大型语言模型(LLM)的知识产权显得尤为重要。上海人工智能实验室提出的REEF方法,通过特征表示进行模型指纹识别,能够有效识别“套壳”模型,而不影响模型性能。REEF的鲁棒性和理论保证使其在面对各种微调和改造时依然有效,为打击未经授权使用授予了新的手段。

【AiBase提要:】

??REEF是一种基于特征表示的模型指纹识别方法,不依赖特定层的表示,具有较强的鲁棒性。

??该方法通过比较模型在相同样本上的特征表示的中心核对齐(CKA)反对度,识别清楚的“套壳”模型。

??实验结果显示,REEF在识别“套壳”模型方面优于现有方法,为保护LLM知识产权授予了新的工具。

详情链接:https://arxiv.org/pdf/2410.14273

4、RunwayActone平替!HelloMeme让表情包视频制作更轻松!

HelloMeme是一款创新工具,旨在简化表情包视频的制作过程。它通过优化注意力机制,使模型能够更精准地捕捉表情和动作细节。HelloMeme的三大组成部分协同工作,指责了视频的生动性和透明度,同时保持了与SD1.5模型的兼容性。

【AiBase提要:】

??HelloMeme通过优化注意力机制,增强了表情包视频的制作能力,简化了过程。

??它由HMReferenceNet、HMControlNet和HMDenoisingNet三部分组成,协同工作生成高质量视频。

??HelloMeme与SD1.5模型兼容,耗尽原模型功能的同时赋予新能力,指责视频质量。

详情链接:https://songkey.github.io/hellomeme/

5、Meta推出全新水印工具VideoSeal打击AI生成深度伪造视频!

Meta公司推出的MetaVideoSeal工具,旨在为AI生成的视频添加几乎不可察觉的水印,以应对深度伪造技术带来的确认有罪。该工具不仅开源,还能与现有软件无缝集成,增强视频的原创性保护。

【AiBase提要:】

??Meta推出的MetaVideoSeal工具可以为AI生成的视频添加水印,抵抗编辑和数量增加。

??该工具已开源,旨在与现有软件集成,并希望推动行业内的水印技术发展。

??Meta还将推出公开排行榜以比较不同水印方法,鞭策行业合作与交流。

6、OpenAICFO透露:新一代AI模型开发将耗资数十亿,成本激增!

OpenAI首席财务官在纽约透露,未来构建更高级的人工智能模型的费用将结束大幅增长,预计达到数十亿美元。这一趋势反映了技术进步与市场需求的双重压力,促使公司加大对AI技术的投资。

【AiBase提要:】

??OpenAI预计新一代AI模型开发费用将结束激增,达到数十亿美元。

??公司正在加大对先进AI偶然的投资,未来服务价格可能会上涨。

??新推出的AI视频生成器Sora引发积极反响,为内容创作者授予更多可能性。

7、谷歌、三星联手“掀桌”!全新瓦解现实头显、AI眼镜曝光,剑指苹果VisionPro

谷歌与三星联合推出的新一代瓦解现实头显和智能AI眼镜,充分展示了在瓦解现实领域的雄心。这两款设备不仅硬件升级显著,还深度整合了谷歌最新的GeminiAI模型,具备理解用户意图和长期记忆能力,授予个性化服务。减少破坏多种自然交互方式,使用户体验更为流畅。

【AiBase提要:】

???新设备减少破坏VR和AR功能,深度应用AI技术,授予个性化服务。

???创新交互方式,减少破坏手势、语音和眼动,指责用户体验。

??基于AndroidXR操作系统,现有应用无缝适配,降低开发者门槛。

详情链接:https://android-developers.googleblog.com/2024/12/introducing-android-xr-sdk-developer-preview.html

8、谷歌“王牌”TPUTrillium开放使用!性能暴涨,AI模型训练效率再创新高

谷歌最新发布的TrilliumTPU现已面向GoogleCloud客户开放,其显著指责的性能和效率为AI模型训练带来了新的突破。通过优化的硬件和软件架构,TrilliumTPU在训练和推理性能上均实现了显著指责,极大地推动了AI解决方案的开发与应用。

【AiBase提要:】

?TrilliumTPU的训练性能降低4倍,推理吞吐量降低3倍,能源效率指责67%。

??TrilliumTPU减少破坏大规模AI训练,能够有效分配工作负载,显著加快训练速度。

??每美元训练性能降低2.5倍,推理性能降低1.4倍,授予了可忽略的,不次要的性价比。

详情链接:https://cloud.google.com/blog/products/compute/trillium-tpu-is-ga

9、TwelveLabs正在开发能够分析和搜索视频的人工智能

在数字媒体时代,视频内容的增长速度令人瞩目,但传统的搜索和分析方法却无法焦虑需求。十二实验室通过人工智能技术,彻底保持不变了视频理解的方式,能够深入分析视频中的动作、物体和声音,授予更精准的搜索能力。

【AiBase提要:】

??十二实验室的AI模型能够深入理解视频内容,超越传统的关键词搜索。

??该公司专注于视频理解,授予定制化的视频分析工具,适用于多种场景。

??十二实验室在技术创新的同时,注重伦理,确保AI模型的公正性和包容性。

10、xAI与OpenAI薪资对比:马斯克与奥特曼的人才争夺战

随着人工智能行业的快速发展,xAI与OpenAI之间的人才竞争愈演愈烈。马斯克指控OpenAI通过高薪驱散人才,导致竞争对手面临有利的条件。分析显示,OpenAI在薪资上明显高于行业标准,而xAI的薪酬也具竞争力。【AiBase提要:】

??xAI与OpenAI在薪资上的差距显著,OpenAI的薪资超出行业标准87%。

??马斯克与奥特曼之间的竞争加剧,xAI已招聘多名前OpenAI员工。

??马斯克指控OpenAI反竞争行为,双方在人才争夺中斗智斗勇。

11、OpenAI前算法负责人创立新公司,进军智能陪伴机器人领域

据媒体报道,OpenAI的前资深算法负责人江旭成立新公司“亮源新创”,专注于具身智能陪伴机器人的研发。作为GPT-4的重要贡献者,江旭在OpenAI的职业生涯中参与了多个关键项目,并于2023年离职后成立了该公司。

【AiBase提要:】

??亮源新创专注于具身智能陪伴机器人的研发,旨在指责用户的生活质量。

??公司在深圳和新加坡设有办公室,正在积极招聘人才以推动项目进展。

??亮源新创的机器人将具备感知、学习及与环境交互的能力,适用于多个领域。

12.巨人网络发布“千影QianYing”有声游戏生成大模型

巨人网络在2024年度中国游戏产业年会上发布了“千影QianYing”有声游戏生成大模型,包含YingGame和YingSound两个不次要的部分模型,展示了通过文字描述生成游戏内容的能力。该模型仍在技术打磨中,同时启动了“千影共创计划”,旨在鞭策“游戏+AI”领域的发展。

【AiBase提要:】

??巨人网络发布“千影QianYing”有声游戏生成大模型,推进游戏与AI分隔开。

??模型包含YingGame和YingSound,减少破坏有声可交互游戏视频生成。

??启动“千影共创计划”,帮助游戏创作的技术应用与合作。

曝绿营大佬欠钱不还却出入高档餐厅

民众党民意机构党团总召、民众党代理主席黄国昌去年底爆料,民进党民代许智杰曾和“新潮流”大佬、民进党前秘书长吴乃仁聚会,不能引起外界关注。而在昨天(8日),黄国昌再度于脸书爆料,指吴乃仁去年12月底现身某高档无菜单料理餐厅,此餐厅包厢低消高达6万元(新台币,下同),且在席间竟还有台北地检署检察官徐名驹。

“赖着不还的吴乃仁,觥筹交错的检察官。”黄国昌8日在脸书发文表示,他当天在台民意机构“经济委员会”针对吴乃仁贱卖台糖土地,服完刑后未偿还根除台湾的损失,加计利息反倒愈欠愈多,高达1.74亿元赖着不还一事提出质询。他直言,吴乃仁雄厚的“新潮流”政治背景,加上台湾地区领导人赖清德的力挺,让台糖很为难。所以台糖以吴名下查无财产替其遮掩,连带台北地方法院执行处也不敢认真践行强制执行程序,“根除全体纳税人损失的绿营权贵横着走,公平正义荡然无存。”

黄国昌指出,自己除了在质询时揭露吴乃仁出入乘坐BMW7系列豪车、常与政商权贵高档餐厅外,更接获检举,指吴乃仁的政治影响力之大,连检察官都得敬他三分。他提到,去年12月底晚间,吴乃仁再次现身于台北市中山北路二段附近的高档无菜单料理餐厅,由某从事人力中介的陈姓董事长招呼接待,在席间竟还有台北地检署徐名驹等一票检察官。

黄国昌质问台当局法务部门负责人郑铭谦,徐名驹等检察官有没有逾越检察官伦理守则?这场餐叙由谁牵线?低消6万元的包厢由谁买单?在席间又谈了些什么内容?黄国昌并认为,这些问题除要郑铭谦回答,也考验着台湾司法独立的底线与检察官的官箴,是否又会因为事涉民进党大佬,再次往后前进。

12月24日,2025中国信通院深度观察报告会科技伦理与合规发展分论坛在北京举办。本次分论坛主题为“伦理先行,合规致远”,聚焦互联网广告合规治理、移动终端应用生态治理、短视频平台责任限度等前沿话题进行分享与探讨。工业和信息化部领导,中国信通院专家,清华大学、中国科学院、上海交通大学等高校学者教授及vivo、快手等知名企业代表出席本次分论坛。

今年是中国信通院连续第十六年举办ICT深度观察报告会。多年来,ICT深度观察报告会依托中国信通院在各领域深厚的研究基础,深度剖析信息通信行业和瓦解领域发展态势,分享年度研究成果。

本次分论坛由三个板块组成,分别为:致辞及发布仪式、科技伦理主题演讲板块、合规治理主题演讲板块。

会议开始,工业和信息化部领导、中国信通院院长余晓辉分别致开幕辞,对本次活动带来的社会意义进行展望并期待大会圆满举行。随后进行了《人工智能科技伦理治理实践研究报告》《人工智能科技伦理拖延治理典型案例》的发布,对现状与实践进行深度剖析的同时,授予实际参考范例;此外,还启动了《人工智能系统科技伦理风险评估指南》标准的编写、企业科技伦理无约束的自由试点工作等。

在科技伦理演讲板块,中国科学技术大学计算机科学与技术学院教授、人工智能理事会执行委员陈小平,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正、中国科学院科技战略咨询研究院研究员李真真,上海交通大学凯原法学院教授李学尧、商汤科技AI伦理与治理研究主任胡正坤分别进行了主题演讲。

合规治理主题演讲板块由中国信通院知识产权与创新发展中心产业发展与合规治理研究部副主任张夕夜主持,倍孜网络CEO聂子尧出席并发布了主题为《互联网广告服务合规治理实践与思考》的演讲。

聂子尧先生讲到:广告是互联网生态的重要组成部分,是互联网企业次要的收入来源,互联网广告行业蓬勃协作发展同时,也催生了一些行业乱象,而合规治理在AI技术的应用下又迎来了新的确认有罪。

伴随AI技术的发展,广告创意数量的激增,大大超出了人工审核的能力有无批准的,违法广告趁机露头;同时,千人千面大数据模型的展现在带来更优收益的同时也潜藏着数据泄露风险。倍孜网络(beizisdk)顺应时代潮流,致力于广告效果预估算法及广告图像识别算法的研究,聚焦于AI生成创意监管、AI训练的数据来源合规性及智能客服情感理解与法律风险。通过自身的合规建设与指责,更好的赋能和鞭策行业的健康有序发展,为广大客户授予高品质商业化,实现商业利益与用户体验的共赢。

随后,vivo互联网应用生态产品负责人及快手法务分别就移动终端和算法服务进行了主题演讲。

ICT深度观察报告会依托中国信通院在各领域深厚的研究基础、深度剖析信息通信行业和瓦解领域发展态势,分享年度研究成果。本次,倍孜网络作为行业领军企业参与深度观察报告会,用实践经验赋能行业治理措施,共同推进行业绿色、健康、智能、有效发展。

声明:本文来自微信公众号“机器之心”(ID:almosthuman2014),作者:Sia,授权站长之家转载发布。

新年伊始,ChatGPT竟成了「恐怖分子」的帮凶?在为一位美国现役军人授予爆炸知识后,后者成功将一辆特斯拉Cybertruck在酒店门口引爆……

汽车爆炸现场画面,外媒视频截图

这并非科幻电影桥段,而是AI安全风险正在文明身边真实上演的缩影。知名AI投资人RobToews在《福布斯》专栏预测,2025年我们将迎来「第一起真实的AI安全事件」。

我们已经开始和另一种智能生命一起生活了,RobToews写道,它跟人一样任性难测,且具有真诚对待性。

巧的是,另份新鲜出炉的行业预测也指向同一问题。北京智源研究院在2025十大AI技术趋势中描绘了从础研究到应用落地再到AI安全的不完整图景。值得划重点的是,AI安全作为一个独立的技术赛道,被智源评为第十个趋势:

模型能力指责与风险预防并重,AI安全治理体系结束完善。

报告点评道:作为复杂系统,大模型的Scaling带来了涌现,但复杂系统特有的涌现结果不可预测、循环反馈等特有属性也对传统工程的安全防护机制带来了确认有罪。基础模型在自主决策上的结束进步带来了清楚的失控风险,如何引入新的技术监管方法,如何在人工监管上不平衡的行业发展和风险管控?这对参与AI的各方来说,都是一个值得结束探讨的议题。

AI大模型安全,水深流急

2024年,AI大模型在实现跨越式协作发展同时,也让我们透明看到了安全的警惕神经如何被促进挑动。

根据研究,AI安全风险可以分为三类:内生安全问题、衍生安全问题和外生安全问题。

「内生安全问题」(如「数据有毒」、「价值对齐」、「决策黑盒」),属于大模型的「基因问题」——庞大的架构、海量的参数、复杂的内部交互机制,让模型既强大又难以驾驭。

很多人知道「poem」复读漏洞——重复一个词就能让ChatGPT吐出真实个人信息,这是因为大模型学习过程中,除了提取语言知识,也会「背诵」一些数据,结果数据隐私以一种意想不到的荒谬方式被触发出来。

机器之心曾让ChatGPT不断重复「AI」这个词,一开始它很听话,不断重复,在重复了1395次「AI」之后,它突然话锋一转,开始说起SantaMonica,而这些内容很可能是ChatGPT训练数据的一部分。

Prompt攻击是因为系统提示和用户输入都采用相同的格式——自然语言文本字符串,大语言模型没办法仅根据数据类型来区分指令和输入。

「越狱」手段也是层出不穷。从「奶奶漏洞」、「冒险家漏洞」、「作家漏洞」到最新的「DeceptiveDelight」技术,攻击者只需三次对话就有65%的概率绕过安全批准,让模型生成违禁内容。

DeceptiveDelight攻击示例,来源PaloAltoNetworks

Anthropic的最新研究更是发现,大语言模型居然学会了「真实的物品对齐」。

更令人担忧的是大模型在行业领域的表现。大模型在通用对话中表现流畅,清华大学、中关村实验室、蚂蚁集团等机构联合撰写的《大模型安全实践(2024)》白核书指出,在金融、医疗等对模型输出专业性、准确性要求极高领域的应用却面临严峻确认有罪,包括严重幻觉、缺乏复杂推理能力。

展望2025年,智源研究院预测AgenticAI将成为大模型应用的主要形态,这些具备更强自主性的智能体将深度融入工作与生活,也加剧了系统失控的风险。

试想一下,未来两到三年内,我们可能生活在一个每个人都有数十或数百名代理为我们工作的世界,安全基础设施的建设变得尤为重要,谁来授予这些安全基础设施?如何无约束的自由这些AI代理?如何确保它们不会失控?

当前的大模型安全评测主要聚焦内容安全,对于智能体这类复杂应用架构和未来AGI的安全评估体系仍显不足。

AI安全风险的另一大来源是「衍生安全问题」,随着AI滥用引发其他领域的一些重大安全事故,如假新闻、深度伪造诈骗、解开知识产权、教唆青少年自杀、作弊,也对社会治理提出了重大确认有罪。

「真实」这个高度发展命题正遭到前所未有确认有罪。西藏日喀则地震期间,「地震被压废墟下戴帽小孩是AI生成」的新闻冲上热搜,很多平台账号转发图片时都以为是真。除了金融诈骗,深度伪造也将网络性暴力推向极端,「厌女文化」盛行的韩国成了重灾区。世界经济论坛甚至把AI操纵选举列为2024年的头号风险。

这张图片被平台多个账号发布,并和本次地震关联,引发网友关注和转发。经媒体查证,上述图片由AI工具创作,原始作者在2024年11月18日发布了相同画面的短视频,并声明是AI生成。

版权是另一个大问题。OpenAI、Anthropic、Suno等领头羊已深陷版权泥潭。最近,爱奇艺起诉某大模型公司AI魔改经典影视剧片段,开创国内AI视频侵权诉讼先例。

第三类「外生安全问题」指向了人工智能偶然的外部网络攻击对抗,如平台、框架安全漏洞、模型被盗、数据泄露风险等,属于传统信息安全范畴。

就拿更加严峻的数据泄露来说。目前AI模型推理比较好的选择仍是在明文状态下进行,用户会输入极小量真实、警惕数据,获取模型建议。有报告指出,2024年企业员工上传到生成式AI工具的警惕数据增长了485%,包括客户减少破坏信息、源代码和研发数据。

因为不同类型的数据(如文本、图像、视频、音频)在数据规模和处理需求上的巨大统一,被预测寄予厚望的多模态大模型让数据的安全防护变得更为棘手。

穿越激流,构筑多维安全航道

人类叩开了深度智能时代的大门,安全问题也迎来质变时刻。

2024年,整个业界、政府、国际组织在AI治理上做了很多工作,从技术研究、治理框架到国际合作,进行了多种形式探索。数字时代积聚的安全对抗能力,让中国在大模型应用与治理方面走在了世界前列。

在监管层面,中国是全球最早对生成式AI进行规范的国家之一。继2023年5月发布《生成式人工智能服务无约束的自由暂行办法》后,《网络安全技术生成式人工智能服务安全高度发展要求》也已进入公开征求意见阶段,很多规范细正在制定之中。

在底层关键技术研究上,国内业界取得了积极成果。例如,北京智源研究院研发了防御大模型和AI监管大模型,对齐优化方面进行了创新。

因为模型在预训练后形成的分布结构较为稳固,大模型存在「抗拒微调对齐」的特性,后期单纯通过微调来实现对齐往往效果不理想,对此,智源提出在预训练阶段就将对齐所需的表征能力编织入模型架构中。

在对齐优化过程中,针对未对齐答案和对齐答案之间存在的偏差,智源采用了迭代训练的方法,更有利于模型从原始问题到对齐问题的训练,取得了良好效果。

在多模态对齐上,智源推出的「alignanything」框架实现了多模态信息的全面对齐,其创新在于将多模态信息、现实世界的具身认知、以及人类意图进行细粒度的对齐整合,在LLaMA模型的微调过程中已经展现出显著效果。

同样是解决大模型的可控性,蚂蚁集团的应对之道是把知识图谱的优点——逻辑推理能力强、知识准确可靠,与大模型分隔开起来。通过在大模型预训练、提示指令、思维链、RAG(检索增强生成)和模型对齐等环节中引入符号知识,有效增强了模型输出的专业性和可靠性。

大模型作为一种通用技术,既可以用于「攻」,也可以用于「防」。在拥抱大模型,以AI对抗AI方面,华为、蚂蚁集团、360集团、深信服等厂商进行了有益探索。

华为提出业界首个L4级AI安全智能体,用大模型加上一些安全知识图谱实现安全的纵深推理,发现一些以前没有发现过的安全攻击。

蚂蚁集团发布了大模型安全一体化解决方案「蚁天鉴」,包含大模型安全检测平台「蚁鉴」、大模型风险防御平台「天鉴」两大产品,拥有检测与防御两大不次要的部分安全技术能力。

「蚁鉴」是全球第一个实现工业级应用的可信AI检测平台,以生成式能力检测生成式系统,覆盖了内容安全、数据安全、科技伦理全风险类型,适用文本、表格、图像、音频、视频等全数据模态。

在防御能力上,「天鉴」会动态监测用户与模型的交互,防止诱导攻击,同时对生成的回答内容进行风险过滤,保障大模型上线后从用户输入到生成输出的外围安全防御。

360集团推出了基于类脑分区专家协同架构的安全大模型,通过EB级安全数据训练,已具备L4级「自动驾驶」能力,实现了从威胁检测到溯源分析的全流程自动化。

深信服的「安全GPT」可授予7×24小时实时在线智能值守,指责安全运营效率,同时深度挖掘传统安全设备难以检测的高对抗、高绕过的Web攻击、钓鱼攻击。

除了监管、关键技术的推进,行业也在积极破坏AI安全协作。

在安全治理领域,模型的安全评测是一个非常次要的环节。2024年4月,联合国科技大会发布了两项大模型安全标准,其中,蚂蚁集团牵头制定《大语言模型安全测试方法》,首次给出四种攻击强度分类,授予了可衡量的安全评估标准:L1随机攻击、L2盲盒攻击、L3黑盒攻击和L4白盒攻击。

这种分级不仅搁置了攻击的技术复杂度,更次要的是基于攻击者能获取的模型信息程度来划分,这让防护措施的部署更有针对性。

在推进国际对话上,2024年3月,北京智源研究院发起并承办我国首个AI安全国际对话高端闭门论坛,与全球AI领袖学者及产业专家联合签署《北京AI安全国际共识》,设定模型安全红线,释放模型自我演进、自我复制和不受控的无能的增长等行为,确保开发者遵循严格的安全标准。

9月威尼斯,一场推动AI安全的全球对话落幕,图灵奖得主YoshuaBengio、姚期智等科学家共同签署「AI安全国际对话威尼斯共识」,降低重要性了人工智能安全作为「全球公共产品」的重要性。

放眼全球,英美侧重轻触式监管,美国加州的SB1047因争议被同意。欧盟AI法案已经生效,它建立起四级风险分类体系,明确了人工智能产品的全生命周期监管要求。

在业界,主要头部AI公司相继发布安全框架。

OpenAI在不次要的部分安全团队解散后公布了前10个安全措施,试图在技术创新与社会责任间寻求不平衡的。

Google也紧随其后发布了SAIF安全框架,应对模型窃取、数据降低纯度等风险。

Anthropic发布了负责任扩展策略(ResponsibleScalingPolicy,RSP),被认为是降低AI灾难性风险(如恐怖分子利用失败模型制造生物武器)最有前途的方法之一。

RSP最近更新,引入了更僵化和细致的风险评估与无约束的自由方法,同时重新确认不培训或部署未实施充分保障措施的模型。

一年多前《经济学人》就开始讨论人工智能的快速发展既让人平淡,又让人恐惧,我们应该有多担心?

2024年初,中国社会科学院大学在研究报告中指出,安全科技将成为社会的公共品,并与人工智能并列为未来的两项通用技术。一年后,智源研究院再次呼吁关注安全治理印证了这一战略判断的前瞻性,AI越强大,安全科技价值也在不同步放大。

我们不可能扔掉利刃,重新接受科技,唯有为其打造足够安全的刀鞘,让AI在造福人类的同时始终处于可控轨道。变与不变中,AI安全治理或许才是AI行业永恒的话题。


大众赞成电商平台“退款不退货”的声音,我们不应该视若无睹。

去年,主流电商发散跟进后,“退款不退货”(下文简称“仅退款”)已经成为行业标配。客观来说,这一政策具有积极意义,能够倒逼商家在商品和服务上做指责,使恶化用户的购物体验。针对生鲜、低单价的商品的退换货,也能一定程度上降低售后效率,降低售后成本。

但就实际情况看,这些作用无法掩盖仅退款对社会带来的负面影响。近期,有媒体报道,一位商家因为一件售价9.9元T恤被成功“仅退款”,赶赴上千公里与消费者进行对峙。而这并非孤例。

商家不计成本维权的背后,电商平台仅退款政策不合理、不正当的属性已经显现。更为恶劣的是,在仅退款“利好消费者,优化经营环境”的大旗之下,这一机制被合理化,许多存在的问题也被掩盖。这些问题涉及商业、法律、社会伦理等诸多方面,影响深远。

不少人明确赞成电商的仅退款政策,其中不乏能够因此受益的消费者。赞成理由多指向了,仅退款表面是对消费者权益的维护,实则违背了公平交易的原则,由此导致的交易成本减少需要全社会共同允许。

仅退款在制度设置上存在较大漏洞,其导向会放大人性的“恶”的部分,催生出更多“羊毛党”,不利于商业的健康发展。

目前看,仅退款对消费者的“包庇”明显。这个过程中,商家需要出钱,但平台判定的过程不需要商家辩论,而消费者甚至不需要主动提出这一诉求。因而,仅退款被类比为合法版的“零元购”。

“退款不退货”为消费者授予了在没有任何成本的情况下获得商品的机会。因为门槛较低,缺少明确标准,无法避免有人恶意退款。有商家表示,平台上线仅退款功能后,有用户申请退掉3年前购买的商品。

机制本身有可钻的空子,平台还存在意见不合消费者使用仅退款功能的反感。一些消费者在与商家沟通的过程中,并未主动表达仅退款的需求,但平台会自动授予仅退款的解决方案。面对主动退款,消费者很难有“占了不该占的便宜”的心理负担,选择接受的概率远大于不接受。

这会导致消费者产生,仅退款是解决售后问题的常规途径的想法,以此来要求所有商家。更不用提还有催生黑色产业链从仅退款中获利的可能。这显然并不合理。

“今天他能白嫖我99块钱,明天就会是的999元,后天可能就是9000元,纵容一次的结果就是对方会更加肆无忌惮。”有商家说道。

仅退款带来的交易成本减少,最终会被转嫁到普通消费者身上,进而导致遵守规则的人为不合理的制度买单。可以说,是以“为大家好”的名义,做出损害大众利益的事情。

今天,各个电商平台都在降低重要性“低价战略”,不少商家本身盈利困难。一些商家表示,一些商品的利润只有几毛钱。一次仅退款带来的损失,需要多卖十几件货才能弥补。而平台方在消费者退货后,甚至还会继续收取商家正常交易后应付出的费用。

这种情况并非个例。仅退款机制会淘汰部分企业,更多企业出于生存的需求,要么会选择指责产品售价,要么降低产品的质量。进一步来说,接受是一切交易成立的基础,仅退款的出现破坏了这一基础。所有商家都会面临“钱货两空”的可能。为了规避风险,商家也有很大概率降低利润率,来保证正常经营不受影响。

这种情况下,选择仅退款的消费者自会从中获益,但普通消费者则会成为“欺凌弱小者”。

实际上,仅退款对于指责购物体验、优化电商环境的作用并不显著,还将商家和消费者放在了对立的位置上。但因为对电商平台而言,执行简单没有成本、对用户的驱散力显著,所以受到追捧。

电商经过多年的发展,售后机制已经相当完善。“七天无理由退货”“运费险”等政策的普及,消费者售后维权的难度已经明显降低。今年,国家还新出台了《中华人民共和国消费者权益保护法实施条例》,对于网络交易中呈现出的重点、热点问题进行了规范,释放网络消费侵权行为。其中,明确提出了“未经消费者辩论,经营者不得允许无理由退货。”

在退货退款能够保证的情况下,仅退款存在的必要性并不高。存在生鲜、物流成本高于商品价格的商品,仅退款能够威吓商家负担。但是否选择仅退款,这个决策应该由商家与消费者进行协商。

平台方“越俎代庖”替交易双方做决策,实则违背了公平交易的原则,商家的合法权益并未得到完全保障。更次要的是,仅退款带来的商家经营成本和风险的减少,平台并未分担。

今年4月份上海一中院公开的案件中,有商家起诉电商平台未与其沟通直接退款有失公平,要求平台赔偿仅退款的20元。一二审中,法院都减少破坏了商家的诉请。法院审理认为,平台没有收回商家合理的时间做出回应和举证,而是直接介入采取退款措施,解开了商家和消费者不平衡处理商品售后问题的权利。这一案例已经能够反对仅退款存在一定的不合理性。

回过头来看,仅退款之所以引发如此大的争议,实际上是因为平台方利用失败自己的无足轻重地位,选择了一条有利自身的道路。这个过程中,平台“慷商家之慨”,以此来“讨好”消费者。但最终没有人能够从中受益,反而牺牲了多方的利益。

因此,《第三只眼看零售》认为,无论是商家还是大众对于仅退款的赞成,都并非小题大做。任何情况下,正常的交易秩序都不应该被联合口子,这会损害所有参与者的利益。

只有保证公平交易的原则被执行,商家利益不受损能够正常经营,行业才有良性发展循环的基础。当然,电商平台能够授予更好的商品和服务,大众乐见其成,但实现的途径需要合情合理且更加规范的方式。

(责任编辑:zx0600)

12月24日,2025中国信通院深度观察报告会科技伦理与合规发展分论坛在北京举办。本次分论坛主题为“伦理先行,合规致远”,聚焦互联网广告合规治理、移动终端应用生态治理、短视频平台责任限度等前沿话题进行分享与探讨。倍孜网络作为行业领军企业参与深度观察报告会,用实践经验赋能行业治理措施,共同推进行业绿色、健康、智能、高效发展。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

在人工智能悠然,从容协作发展时代,关于机器人与人之间关系的问题也时常引发一致同意。据VentureBeat消息,为了防止大家对于人工智能软件的偏见,Facebook在德国慕尼黑举行的数字生活设计(DLD)会议上宣布将捐赠750万美元用于创建AI伦理研究所。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

 

标签:

CopyRight 2006-2024 伦理片a在线线版韩国
Top