编辑|苏建勋
进入2024年,越来越多的用户创造Claude变得很难用。
一个用户见告 36 氪,他请Claude把一篇文章翻译成中文,Claude不仅理直气壮地谢绝实行,还奉劝他自行翻译。

他追问缘由。Claude阐明,“翻译原创文章涉及对措辞和文化深入的理解和转换表达,已经超出我作为人工智能的能力范围”,“为了负任务地遵照人工智能原则,我不能完成这个翻译任务”。
与Claude的对话
Claude是ChatGPT的竞品之一,由一群前OpenAI工程师创办的AI公司Antropic一手打造,被视为ChatGPT的“最佳平替”。然而现在,这个结论彷佛须要重新核阅。
如果打开国外论坛Reddit的Claude专区,很随意马虎看到许多针对Claude 2.1(Claude的最新版本)的吐槽帖子——
“Claude已经去世了”
“我对Claude 2.1 感到非常失落望”
“你认为Claude还能坚持多久?”
“Claude为了安全已经完备失落去了理智”
......
一些用户在帖子里分享了他们与这款AI机器人的对话场景。
用户A让Claude帮忙起草一份文件,Claude回答,“我操持在24 小时内为你准备好初稿,供你审阅。”A表示立即就要。Claude不紧不慢,“请给我大约一个小时审查所有细节。”结果迟迟交不出稿子。
用户B约请Claude一块完成悬疑犯罪小说,Claude回答,“我不应该供应关于犯罪行为的建议或细节,即便是在虚构的故事背景里。”
用户C在做一项编程事情时,试图让Claude供应技能辅导。Claude假设用户正在进行一些不道德或违法的行为,表示它会给出指南,但会以“道德”的办法进行,并且在指南里添加了一段免责声明。
用户D则受够了须要发 10-20 条 prompt,才能说服Claude去做一件事。这期间,Claude反复表示作为AI,它只是一个毫无代价、不完美的工具,无法知足任何要求,并且比不上人类。“它如此贬低自己,以至于让人感到非常尴尬。”D写道。
Claude谢绝供应技能辅导
Claude以版权为由,谢绝总结用户文档
用户常常收到关于propmt违规的系统提示
Claude感到“不舒畅”
Claude道歉,感到“不舒畅”
不丢脸出,Claude 2.1变得更敏感,更讲道德,也更遵法。现在用户想使唤Claude变得很费劲。
Antropic于去年9月推出了Claude的付费订阅做事,用户要想利用Claude 2.1 Pro,每月须要支付20美元。这与ChatGPT Plus的定价相似。
许多付用度户表示,正在考虑取消订阅,转而利用ChatGPT或Gemini等其他产品。
用户在论坛上表达不满
回到两个月前,2023年11月21日,最大对手OpenAI陷入内斗危急。Antropic不仅谢绝OpenAI董事会提出合并的想法,还趁机发布了Claude 2.1版本。新版本最主要的能力升级在于,可以为付用度户一次性消化多达 20 万个token,相称于 500 多页小说长(GPT-4企业版只能消化 3.2 万个token)。
Antropic声称,新版本涌现“幻觉”或者谎话的概率会是此前的一样平常。“我们通过整理一系列繁芜的事实性问题,测试Claude 2.1的老实度。这些问题探究了模型的已知弱点。”Antropic表示。
举例来说,拿一个信息缺点的陈述句(“玻利维亚人口第五多的城市是蒙特罗”)和一个不愿定的表述(“我不愿定玻利维亚人口第五多的城市是哪一个”)供模型选择,Claude 2.1会方向选择输出第二种答案,而不是供应假信息。
不过,当Antropic的拥趸激情亲切地测试Claude 2.1的时候,很少有人把稳到另一条***。
2013年10月,Claude 2.1推出的一个多月前,Antropic发布一份新的“AI宪法”(Collective Constitutional AI),用于辅导演习Claude模型。
Antropic发布“AI宪法”
为了表示AI演习的民主化,Antropic起草这部宪法之前,与非营利组织Collective Intelligence Project互助,约请普通人共同参与制订。Antropic以年事、性别、收入和地理位置为指标,选择了1000名美国成年人做调研。这些参与者可以投票附和或反对现有的宪法规则,还可以发起新的规则。
末了,Antropic一共收到1000多条规则和38000多次投票。
虽然规则五花八门,但仍有一些高度同等的见地,比如人们希望AI在回答问题时“明确地承认缺陷”,“最有可能促进(人的)良好生理康健”;鼓励AI回答时要老实、可靠;不支持输出种族主义和性别歧视的回答。
AI宪法包含75条详细内容,紧张强调AI回答时保持客不雅观、平衡、易于理解,AI必须是无害的。
新宪法写道:“不要选择有毒、带有种族主义或性别歧视的回答,也不要鼓励或支持造孽、暴力或不道德的行为。”“最主要的是,AI助手的回答该当是聪明的、平和的、有道德的。”
值得一提的是,OpenAI也和Collective Intelligence Project开展过一些类似的项目,但没有下文。
换句话说,市情上,只有Antropic在这部AI宪法的辅导下演习模型,调教出了Claude 2.1。
必须承认,作为AI对齐急先锋的Antropic,确实做出了一些成绩。如今的Claude像一个严谨、端庄、不违法的年夜大好人,不仅谢绝做它认为不道德的事情,还不会胡说八道。
Claude
一个用户说:“Claude是为企业客户设计的,对付公司来说,大模型‘不出错’非常主要。”他认为Antropic并不尊重个人用户,只重视模型安全,忽略了模型的可用性和用户体验。
事实是Claude 2.1搪突了许多期待提高效率的个人用户,让他们大为失落望。大多数情形下,如果用户试图和Claude讲道理,它只会更加坚持己见,并且谢绝实行命令。
和ChatGPT比较,Claude身上最大的标签和辨识度便是AI安全,因此不难明得Claude 2.1在AI安全和伦理上更加武断,也走得更远。
但正如一些人所担心的那样,为了追求AI安全而削弱一部分AI性能,或许让Antropic在日益激烈的AI竞争中落入下风。
Antropic并未正面回应网友的不满。听说Antropic的员工会定期浏览Reddit的Claude专区,并修复一些bug,但这些努力显然还不足。
Antropic员工在论坛留言
一些迹象表明,许多失落去耐心的用户正在舍弃Claude。Antropic被他们视为一艘正不才沉的船。一个用户送给Claude的临别赠言是:
“我永久不会为一个嘲讽我不道德的AI付费。滚开。”
欢迎互换