首页 » 互联通信 » 更安然的AI更随意马虎被用户抛弃?|产品不雅观察

更安然的AI更随意马虎被用户抛弃?|产品不雅观察

上海市建筑装饰工程集团通讯 2025-03-22 0

扫一扫用手机浏览

文章目录 [+]

编辑|苏建勋

进入2024年,越来越多的用户创造Claude变得很难用。

更安然的AI更随意马虎被用户抛弃?|产品不雅观察 更安然的AI更随意马虎被用户抛弃?|产品不雅观察 互联通信

一个用户见告 36 氪,他请Claude把一篇文章翻译成中文,Claude不仅理直气壮地谢绝实行,还奉劝他自行翻译。

更安然的AI更随意马虎被用户抛弃?|产品不雅观察 更安然的AI更随意马虎被用户抛弃?|产品不雅观察 互联通信
(图片来自网络侵删)

他追问缘由。
Claude阐明,“翻译原创文章涉及对措辞和文化深入的理解和转换表达,已经超出我作为人工智能的能力范围”,“为了负任务地遵照人工智能原则,我不能完成这个翻译任务”。

与Claude的对话

Claude是ChatGPT的竞品之一,由一群前OpenAI工程师创办的AI公司Antropic一手打造,被视为ChatGPT的“最佳平替”。
然而现在,这个结论彷佛须要重新核阅。

如果打开国外论坛Reddit的Claude专区,很随意马虎看到许多针对Claude 2.1(Claude的最新版本)的吐槽帖子——

“Claude已经去世了”

“我对Claude 2.1 感到非常失落望”

“你认为Claude还能坚持多久?”

“Claude为了安全已经完备失落去了理智”

......

一些用户在帖子里分享了他们与这款AI机器人的对话场景。

用户A让Claude帮忙起草一份文件,Claude回答,“我操持在24 小时内为你准备好初稿,供你审阅。
”A表示立即就要。
Claude不紧不慢,“请给我大约一个小时审查所有细节。
”结果迟迟交不出稿子。

用户B约请Claude一块完成悬疑犯罪小说,Claude回答,“我不应该供应关于犯罪行为的建议或细节,即便是在虚构的故事背景里。

用户C在做一项编程事情时,试图让Claude供应技能辅导。
Claude假设用户正在进行一些不道德或违法的行为,表示它会给出指南,但会以“道德”的办法进行,并且在指南里添加了一段免责声明。

用户D则受够了须要发 10-20 条 prompt,才能说服Claude去做一件事。
这期间,Claude反复表示作为AI,它只是一个毫无代价、不完美的工具,无法知足任何要求,并且比不上人类。
“它如此贬低自己,以至于让人感到非常尴尬。
”D写道。

Claude谢绝供应技能辅导

Claude以版权为由,谢绝总结用户文档

用户常常收到关于propmt违规的系统提示

Claude感到“不舒畅”

Claude道歉,感到“不舒畅”

不丢脸出,Claude 2.1变得更敏感,更讲道德,也更遵法。
现在用户想使唤Claude变得很费劲。

Antropic于去年9月推出了Claude的付费订阅做事,用户要想利用Claude 2.1 Pro,每月须要支付20美元。
这与ChatGPT Plus的定价相似。

许多付用度户表示,正在考虑取消订阅,转而利用ChatGPT或Gemini等其他产品

用户在论坛上表达不满

回到两个月前,2023年11月21日,最大对手OpenAI陷入内斗危急。
Antropic不仅谢绝OpenAI董事会提出合并的想法,还趁机发布了Claude 2.1版本。
新版本最主要的能力升级在于,可以为付用度户一次性消化多达 20 万个token,相称于 500 多页小说长(GPT-4企业版只能消化 3.2 万个token)。

Antropic声称,新版本涌现“幻觉”或者谎话的概率会是此前的一样平常。
“我们通过整理一系列繁芜的事实性问题,测试Claude 2.1的老实度。
这些问题探究了模型的已知弱点。
”Antropic表示。

举例来说,拿一个信息缺点的陈述句(“玻利维亚人口第五多的城市是蒙特罗”)和一个不愿定的表述(“我不愿定玻利维亚人口第五多的城市是哪一个”)供模型选择,Claude 2.1会方向选择输出第二种答案,而不是供应假信息。

不过,当Antropic的拥趸激情亲切地测试Claude 2.1的时候,很少有人把稳到另一条***。

2013年10月,Claude 2.1推出的一个多月前,Antropic发布一份新的“AI宪法”(Collective Constitutional AI),用于辅导演习Claude模型。

Antropic发布“AI宪法”

为了表示AI演习的民主化,Antropic起草这部宪法之前,与非营利组织Collective Intelligence Project互助,约请普通人共同参与制订。
Antropic以年事、性别、收入和地理位置为指标,选择了1000名美国成年人做调研。
这些参与者可以投票附和或反对现有的宪法规则,还可以发起新的规则。

末了,Antropic一共收到1000多条规则和38000多次投票。

虽然规则五花八门,但仍有一些高度同等的见地,比如人们希望AI在回答问题时“明确地承认缺陷”,“最有可能促进(人的)良好生理康健”;鼓励AI回答时要老实、可靠;不支持输出种族主义和性别歧视的回答。

AI宪法包含75条详细内容,紧张强调AI回答时保持客不雅观、平衡、易于理解,AI必须是无害的。

新宪法写道:“不要选择有毒、带有种族主义或性别歧视的回答,也不要鼓励或支持造孽、暴力或不道德的行为。
”“最主要的是,AI助手的回答该当是聪明的、平和的、有道德的。

值得一提的是,OpenAI也和Collective Intelligence Project开展过一些类似的项目,但没有下文。

换句话说,市情上,只有Antropic在这部AI宪法的辅导下演习模型,调教出了Claude 2.1。

必须承认,作为AI对齐急先锋的Antropic,确实做出了一些成绩。
如今的Claude像一个严谨、端庄、不违法的年夜大好人,不仅谢绝做它认为不道德的事情,还不会胡说八道。

Claude

一个用户说:“Claude是为企业客户设计的,对付公司来说,大模型‘不出错’非常主要。
”他认为Antropic并不尊重个人用户,只重视模型安全,忽略了模型的可用性和用户体验。

事实是Claude 2.1搪突了许多期待提高效率的个人用户,让他们大为失落望。
大多数情形下,如果用户试图和Claude讲道理,它只会更加坚持己见,并且谢绝实行命令。

和ChatGPT比较,Claude身上最大的标签和辨识度便是AI安全,因此不难明得Claude 2.1在AI安全和伦理上更加武断,也走得更远。

但正如一些人所担心的那样,为了追求AI安全而削弱一部分AI性能,或许让Antropic在日益激烈的AI竞争中落入下风。

Antropic并未正面回应网友的不满。
听说Antropic的员工会定期浏览Reddit的Claude专区,并修复一些bug,但这些努力显然还不足。

Antropic员工在论坛留言

一些迹象表明,许多失落去耐心的用户正在舍弃Claude。
Antropic被他们视为一艘正不才沉的船。
一个用户送给Claude的临别赠言是:

“我永久不会为一个嘲讽我不道德的AI付费。
滚开。

欢迎互换

相关文章

有害蓝光到底该怎么防

不是所有蓝光都产生危害“开学了,孩子的视力又成了让人操心的事。”女儿上高二的北京消费者李女士见告《中国消费者报》,“每次敦促她学习...

互联通信 2025-04-21 阅读1 评论0

女孩会梦见电子大年夜象吗?

老人说:“不管去哪里,你都不得不做一些错事,这是生命的基本条件。在某些时候,每个活着的生命都必须这么做。这便是终极的阴影,造物的毛...

互联通信 2025-04-21 阅读1 评论0