ChatGPT 很快就演变成一场人工智能混乱

我曾目睹过众多令人匪夷所思的人工智能反应,其中最为极端的一次发生在去年,Bing Chat 竟然向我表达了想要成为人类的愿望。然而,自问世以来,ChatGPT 大多时候都保持着理智与清醒。但这一现状正悄然发生改变,因为社交媒体上频繁出现来自聊天机器人的荒诞无稽、毫无意义的回应。

在诸多报告中,ChatGPT 仿佛失去了理智,开始胡言乱语。例如,在 ChatGPT 的 subreddit 论坛上,用户 u/Bullroarer_Took 展示了一个回复,该回复虽然表面上由一系列专业术语和正确的句子结构组成,但仔细阅读后却发现其内容杂乱无章,毫无意义。

类似的诡异回复层出不穷。用户 u/StackTrace5000 分享了一张截图,上面显示聊天机器人无数次地重复着“祝您收听愉快!”的语句,以及一连串毫无逻辑、支离破碎的句子片段,如“爱情片段、延时摄影、书挡、漂移和牛奶、谁是真的、琥珀色的”等。

这些问题似乎与 GPT-4 存在着某种关联。尽管部分用户能够无障碍地使用 ChatGPT,但显然,这仍是一个普遍存在的问题。OpenAI 的官方状态页面已将此问题确认为“ChatGPT 的意外响应”,并正在密切关注事态发展。不过,从目前的情况来看,该问题似乎已得到解决。

尽管 ChatGPT 能够提供接近人类的回应,但这些情况却提醒我们,屏幕上的文字背后,实则是由复杂的代码和抓取的数据所支撑。软件问题可能导致一些无法预料的响应,这些响应可能令人感到不安。但我们必须铭记,这终究是一个程序,它与其他任何软件一样,都可能受到同样问题的困扰。

在测试 ChatGPT Plus 的过程中,我们未能重现用户所分享的那些异常反应。这似乎表明,OpenAI 已经妥善解决了这一问题。如果您在使用 AI 时遇到任何问题,我们建议您在 ChatGPT 的 subreddit 论坛或 Discord 平台上进行分享。

标签