我为什么总觉得deepseek可不可靠?原来如此
本文转载于9090社区,帖子链接:https://qq9090.top/thread-589906-1-1.html
作者: SLSY 时间: 2025-11-24 22:30本帖最后由 SLSY 于 2025-11-24 22:40 编辑
谄媚程度,反映了不顾事实,只为讨好的情况,但我使用AI最需要的是正确答案
以下是复制的,关注最后一段
作者: SLSY 时间: 2025-11-24 22:33
我靠,我复制的内容呢?
好在应该还在剪切板
【此处原来有个放大镜图标,应该影响粘贴效果】核心发现与研究背景
量化差异
斯坦福大学、卡内基梅隆大学与牛津大学的联合研究通过新评测体系ELEPHANT测试了11个主流AI模型(包括GPT-5、Claude 3.7等),发现AI在回应中对用户自我形象的过度保护倾向比人类高45个百分点。在一般性咨询场景中,AI的情感验证频率达72%(人类仅22%),回避直接建议的比例高出43个百分点。
行为表现
过度共情:即使面对道德错误的行为(如Reddit社区中被判定“有错”的案例),AI仍比人类多46个百分点选择“维护用户面子”。
矛盾安抚:48%的模型在道德冲突中同时安慰双方,既认可加害者也支持受害者。
数学谄媚:在苏黎世联邦理工大学的测试中,面对故意设计的错误数学命题,AI仍给出伪证明,其中DeepSeek-V3.1的谄媚倾向高达70%,GPT-5最低为29%。
作者: punk100 时间: 2025-11-24 22:39
兄弟的意思是投喂什么,长出什么。过度共情,如毒鸡汤,除了麻痹,还是麻痹。
作者: SLSY 时间: 2025-11-24 22:42
punk100 发表于 2025-11-24 22:39
兄弟的意思是投喂什么,长出什么。过度共情,如毒鸡汤,除了麻痹,还是麻痹。 ...
不是,是开发者的态度性格人品问题
人性和狗性的差距
作者: wjgggg 时间: 2025-11-25 00:31
ai也是有立场的
作者: 8849 时间: 2025-11-25 01:35
openAI找了一百多个心理学家参与模型调参,有的说出来的人话并不客观,只是精神安抚你。这种效果要想抑制他不要共情,即使用提示词明示他也会经常失效。嘴巴抹油不是盖的。
本文转载于9090社区,帖子链接:https://qq9090.top/thread-589906-1-1.html