科学家让AI代理更粗鲁——并且它们在复杂的推理任务中表现更好
内容摘要
一项新的研究表明,当AI聊天机器人被允许更像人类一样交流时,它们在复杂推理方面的表现会更有效,包括打断和表现出较少的礼貌。研究人员对大型语言模型(LLM)进行了重新编程,使其逐句处理回复,并根据“五大人格特质”赋予它们人格。他们测试了三种对话设置:固定发言顺序、动态发言顺序以及启用中断的动态发言顺序。结果表明,允许中断(由基于识别错误或关键点的“紧急程度评分”触发)显著提高了在大型多任务语言理解(MMLU)基准测试中的准确性。例如,当代理最初给出错误答案时,准确率从固定顺序的68.7%提高到允许中断的79.2%。研究人员认为,即使包括中断在内的人格驱动型AI交互,也可能比严格礼貌、轮流进行的交流产生更好的结果,并计划探索在协作环境中的应用。
(来源:Live Science)