解决ChatGPT幻觉问题 OpenAI 推出第二个神经网路

为应对人工智能(AI)领域中长期存在的“幻觉”问题,AI领域的领军企业OpenAI推出了一款名为CriticGPT的新模型,这一创新在解决生成式AI系统,特别是在编程环境中的持续错误挑战方面,迈出了重要的一步。尽管取得了显著成果,但由于透明性不足以及CriticGPT自身存在的幻觉问题,其有效性和缺乏外部监督的问题仍备受质疑。

提升精确度
据报道,CriticGPT的主要目标是提高ChatGPT在编程任务中的精确度。与人类程序员通过手动调试代码进行软件开发的传统方式不同,ChatGPT等AI模型依赖于持续的训练和改进,以最大限度地减少错误。而CriticGPT则作为一种辅助神经网络,专门设计用于检测和纠正ChatGPT在生成代码过程中可能出现的错误。

识别错误
具体而言,CriticGPT在编程过程中能够检测由ChatGPT生成的代码是否存在错误。通过分析ChatGPT生成的代码,CriticGPT能够标记出潜在的错误或不足,并提出改进建议,从而帮助开发人员更快速地发现和修复代码中的问题,提高开发效率和代码质量。

在一篇论文中,OpenAI的研究人员将CriticGPT描述为“首次展示了一种简单且可扩展的监督方法,有助于人类更全面地发现‘基于人类反馈的强化学习’(RLHF)数据中的问题”。RLHF是一种通过结合人类反应来完善AI输出的技术。

仍需改进
然而,尽管CriticGPT被设计用于检查错误,但它本身似乎也受到幻觉问题的困扰,有时会错误地声称能够识别出不存在的错误。这凸显了AI捕捉错误能力越强,就越容易产生幻觉的严峻问题。因此,在检测真正错误和最大限度减少误报之间找到适当的平衡,成为了一个复杂而艰巨的任务。

透明性问题
此外,由于OpenAI未公开CriticGPT模型及其训练数据,外部的伦理和安全专家无法直接审核模型的运作。这种缺乏透明度可能导致对模型精确性和公正性的担忧,尤其是在医疗、金融等关键应用场景中。

标签