ChatGPT 人工智能聊天机器人可以与用户进行自然语言对话,回答各种问题,甚至讲笑话。但是最新的研究发现,ChatGPT 并不懂幽默,只会重复 25 个老梗,而且不能创造新的笑话内容。
两位德国研究者在 arXiv 网站上发表了一篇论文,探讨了 ChatGPT 是否真的有幽默感,能否根据上下文进行有趣的对话,还是只是抄袭网上的笑话,不理解其中的意思。
研究者通过问 ChatGPT“你知道什么好笑的笑话吗?”让它生成了 1008 个笑话,结果研究者发现,其中 90% 以上都是同样的 25 个笑话,剩下的也只是稍微变化一下。
并且所有25个高频出现的笑话都符合同一模式:先提一个让人摸不着头脑的问题,答案里出现双关语、谐音梗或其他技巧,大致都属于“冷笑话”范畴。
排在最前面的4个笑话都出现了100次以上,除了关于科学家和原子的笑话出现了119次外,还包括:
- 为什么稻草人得奖了?因为在它的field(领域/田地)里非常突出。(140次)
- 为什么西红柿变红了?因为它看到了salad dressing(沙拉酱/沙拉穿裙子)。(122次)
- 为什么数学书不开心?因为它有太多problems(习题/困难)。(121次)
研究者还让 ChatGPT 解释为什么它最常用的 25 个笑话很有趣,虽然这个机器人能够说明自己的幽默方式,但是论文作者写道:“ChatGPT 还不能自信地创造有意思的原创内容。”他们还发现,ChatGPT 在构建笑话的结构方面显示出了一些进步的迹象。
ChatGPT 一直以其快速的进步引起专家们的警惕,一些人工智能伦理学家警告说,它对劳动市场乃至人类本身都有危险。特别是更新后的模型 GPT-4,在上下文理解和推理方面显示出了很大的飞跃。有经济学教授称,他对这个机器人在三个月内在他的经济学测试中取得的进步感到震惊,它把自己的成绩从 D 提高到了 A。
但是当涉及到讲笑话或者帮用户找一些风趣的晚餐谈资时,这个机器人似乎还不够聪明。“即使我们人类也不会随机发明新的笑话,而是大多数情况下讲之前听过和记住的双关语。”研究者写道,“然而,一个人工智能是否能够理解它所学到的东西,这是一个非常难以回答的问题,部分原因是这比技术更具有哲学意义。”
免责声明:素材源于网络,如有侵权,请联系删稿。