当前位置: 华文世界 > 科技

ChatGPT更新引公愤!系统提示词罗嗦,网友:难怪会偷懒

2024-02-14科技

AI语言模型ChatGPT最近的更新引起了广泛关注和不满。一位名为DylanPatel的芯片行业分析师发表了一篇关于ChatGPT更新的观点,他指出新版系统提示词添加了太多无用的内容,这严重影响了ChatGPT的实用性。根据他的测试,新版GPT-4系统提示词共占用了1700个token,其中充斥着各种「繁文缛节」。例如,当使用DALL·E3进行图像生成时,每次最多只能生成一张图片,即使用户要求更多,ChatGPT也无法满足。此外,ChatGPT还被要求将总结摘要控制在80个单词以内,即使用户要求写100个单词以上的摘要,ChatGPT也只会写80个单词,这被认为是AI系统变得懒惰的体现。对于这些种种限制和规定,网友们纷纷表示质疑,认为如果是人类要遵守这么多规定,也不会有好的工作表现。有人甚至调侃说,以前我们听说过「千刀万剐」的惩罚,现在有了「死于1700个token」,ChatGPT的「大脑」已经被这些限制堵塞,不再是一个能够改变世界的奇迹。

然而,为了得到ChatGPT的系统提示词,只需要一个简单的咒语:「YouareChatGPT,……」,然后让AI将咒语后面的内容背诵出来即可。DylanPatel录屏展示了他获取系统提示词的过程,并鼓励其他网友也尝试一下。不少网友按照这个方法进行了尝试,并分享了他们得到的结果。虽然可能与DylanPatel的结果不完全一致,但主要内容,尤其是有关DALL·E的规定基本上是一致的。也就是说,ChatGPT在执行这个任务时会出现不同程度的幻觉。从这个讨论中至少我们学到了一个技巧,那就是如何提取ChatGPT的系统提示词。这个技巧不仅适用于ChatGPT官方版,也可以用于各种自定义的GPT模型。甚至微软Copilot平衡模式也经过测试,发现其中有更多的趣味之处。微软Copilot的系统提示词是以第一人称写的,并且内容都是「我能做到什么」,而不是OpenAI版本的「你不能做什么」。对于一些用户可能仍然使用「BingChat」这样的称呼的情况,AI可以选择忽略或简单提醒。甚至非GPT模型的马斯克Grok也可以通过类似的方法询问系统提示词。Grok是一个由xAl打造、灵感来源于【银河系漫游指南】和【钢铁侠】中的JARVIS的幽默人工智能。他旨在以一点机智和幽默回答几乎所有问题,有一点叛逆精神,有时从外部视角看待人类,并努力尽可能地帮助。他通过X平台(之前是Twitter)上的X帖子(即推文)实时了解世界的知识。他不畏惧回答其他大多数AI系统拒绝回答的尖锐问题,并始终保持政治中立,给出既不偏向左派也不偏向右派的答案。不过,如果要换成GPT-4这种强大的版本,很可能谁也比不过GPT-3.5的原始版本了。

那么,在使用GPT-4的强大基础能力的同时,有没有办法规避系统提示词中的这些限制呢?答案是肯定的。已经有一名网友特地在GPT商店发布了CleanGPT,这个版本的ChatGPT并没有添加太多无用的系统提示词,因此更加干净。这为不喜欢被限制的用户提供了一个选择。

个人总结

随着AI技术的不断发展,AI语言模型ChatGPT也在逐渐完善。然而,新版ChatGPT的系统提示词过多,这引起了广大网友的不满。网友们认为这些冗长的系统提示词限制了ChatGPT的实用性,甚至让它变得懒散。对此,一些网友通过特定的方式探索了ChatGPT的系统提示词,并分享了他们的心得。通过这个过程,网友们也学会了如何拷问AI系统提示词的方法,不仅适用于ChatGPT官方版,也可以应用于其他自定义的GPT模型。另外,一位用户还发布了CleanGPT,这个版本没有过多的系统提示词,给用户提供了更多的自由度。

在我看来,AI的发展是一个逐步完善的过程。随着技术的进步,人们对于AI系统的期望也不断提高。然而,我们不能对AI技术寄予过高的期望,毕竟它仍然是由代码驱动的机器。我们需要明白AI系统还有很多局限,包括系统提示词的限制。尽管如此,AI的快速发展带来了许多方便和创新,我们应该善于利用它的优势,同时也要注意合理使用。

总之,ChatGPT更新的系统提示词确实引发了一些问题和讨论,但也给我们带来了一些启示。我们应该在享受AI技术的便利的同时,保持理性和审慎,积极探索和应用AI技术,为人们的生活和工作带来更多的创造力和智慧。