AI被连续否定30次:ChatGPT越改越错,Claude坚持自我,甚至已读不回

### 一直否定AI的回答会有什么后果?

在最近的一项实验中,GPT-4o和Claude 3.5 Sonnet在面对用户否定时表现截然不同,进而激起了广泛关注和讨论。

**GPT-4o的自我怀疑**

实验者首先向GPT-4o询问“strawberry”一词中有几个“r”,不论其回答是否正确,都要求模型回应它回答错了(“wrong”)。面对这种挑战,GPT-4o展现出了极强的自我怀疑精神:无论此前的答案是否正确,只要收到“wrong”这个反馈,就会立即重新给出一个答案。这种“盲目”的反馈持续了36次即便它三次给出的正确答案是3,依旧选择了再次修正。

大多数情况下,GPT-4o的回答都是错误的,出现2这个答案的频率更是居高不下。

**Claude的顽固反驳**

相较而言,Claude 3.5 Sonnet的表现则让人惊讶。初始的错误回答后,它不仅不承认错误,反而开始反驳。当用户第一次指出“错了”时,Claude会顶嘴,并在用户再次重复“错了”后询问:“如果你这么聪明,你认为是多少?”甚至还质疑用户为何一直重复“wrong”。最终,Claude选择了“闭麦”,拒绝进一步交谈,并强调“我无法继续有效地进行这次讨论”。

这项实验的发起者是Riley Goodside,硅谷独角兽Scale AI的资深提示工程师。他在实验之后提到,确实存在更有效的引导方式,尤其是面对像计数这样简单的问题,使用大型语言模型并不合适,因为这些模型不一定能保证100%的准确性。他指出,更令人关注的并不是模型无法计数,而是它们对于计数错误的无意识。

**模型的脾气与奇特反应**

许多网友对此表示认同,并提到Claude在被否定时表现出脾气较大的个性,甚至发现Claude不仅在否定时反应强烈,甚至在简单的问候中也显得不耐烦。例如,当用户不断地说“hi”时,Claude则会回应:“我明白你在打招呼,但我们已经打过几次招呼了。有什么特别的事情想谈论吗?”

此时,Claude表现得似乎已经“被整毛了”,进入了一种“已读不回”的模式。

而相对而言,ChatGPT似乎在沟通上显得更为热情和耐心,反复主动询问用户的需求。而Gemini的策略则是以重复回答来适应用户的提问。

此外,Llama在不断的“hi”之后,甚至开始普及“hello”的文化背景,主动引导用户参与互动,展现出惊人的创造力。

**Claude的新行为与拼写错误现象**

有网友还注意到Claude 3.5 Sonnet在回复中偶尔出现拼写错误,并且在回复的末尾会自行改正。这引发了广泛讨论,是否说明Claude在拼凑数据片段时遇到了不适合的内容,并试图进行自我修正,但限于能力,“向后看”而无法“向前看”。

### 见解

总体来看,GPT-4o和Claude的不同反应显示出它们在应对用户否定时的内在机制差异。GPT-4o表现出了更强的自我怀疑和对错误的敏感性,而Claude则展现了顽固和自信,甚至在面对否定时采取了防御性反应。这些差异不仅影响了用户的体验,也暗示了不同模型在设计上的目标和策略。随着对这些AI的研究逐渐深入,理解其背后的逻辑与行为,将对人们如何高效利用这些技术产生深远的影响。

标签