当前位置: 华文世界 > 科技

报名开放|说人话,笑哈哈——关于大模型与人类表达差异的实验

2024-10-08科技

亲爱的朋友,你是否好奇,当机器尝试模仿人类语言时,我们能否分辨出它们的真实身份?我们是否能在机器生成的文字中捕捉到那一丝「人味儿」?

接下来,我们即将揭开一个引人入胜的谜题:在大模型拟人能力快速发展的今天,人类能否准确区分真人回答与AI生成的内容?

为什么要探究
大模型与人类的表达差异?

今年1月,腾讯研究院发布了【调教最暖大模型:通过prompt调试并比较国内外大模型「人情味」的小实验】报告,探讨了「什么是人情味?」,还有不同大模型、不同场景下的多次精彩PK。8月,腾讯研究院进一步发布【大模型的「老朋友」们:关于老年人与大模型聊天儿的循证研究】,并启动了「AI向善语料库」社会共创项目,旨在提升大模型的人文关怀与人情味儿。

无论是研究,还是社会共创项目,我们都感受到用户对大模型语言表达有多元的需求和敏锐的感知。当用户感到孤独,需要倾诉、陪伴、精神支持时,他们常常希望大模型的语言风格上更能模拟人类。所以腾讯研究院、腾讯SSV技术生态部正在设计一个趣味游戏,想与更多的朋友一起来探讨,那些更容易给人「亲切拟人」感受的语言有哪些共性?

【说人话,笑哈哈】
实验具体研究什么?

具体来说,包括三个层面:

1.哪些被认为是「人类写的」语言,而哪些又被认为是「机器写的」语言,它们之间究竟有何不同?

2. 对于那些由大模型生成的回答,哪些能够成功骗过我们的眼睛被误认为是「人类写的」,而哪些又明显暴露了自己的「机器身份」?

3.真正的「真人」回答与「机器」回答之间,又存在着怎样的细微差别?

通过研究,我们期望能够为人工智能领域提供有关人机语言交互的新见解,并推动相关技术在更贴近人类自然交流的方向上取得进步。

如何参与到
「说人话,笑哈哈」的实验中来?

我们诚挚邀请对这一话题感兴趣的朋友们参与实验!

作为实验参与者,你将有机会体验一场真实的辨别挑战!我们会为你提供一系列回答选项,这些回答部分来自真人、部门由大模型生成。你的任务就是凭借自己的直觉和判断,选出那个最有可能是「真人回答」的选项。

您的每一次选择和判断,都可能成为改变未来的关键节点哦!

期待您的加入,让我们一起揭开人类与AI表达差异的神秘面纱!