IT之家 6 月 29 日消息,一项新研究显示,人们更容易信任人工智能语言模型生成的推文,而不是人类编写的推文。
该研究比较了人类和 GPT-3 模型创建的推文,并要求人们通过在线调查来判断推文的真实性以及它们是人工智能还是人类创建的。 事实证明,人们很难分辨哪些推文是由 GPT-3 生成的,而且与人类编写的推文相比,他们更有可能信任 GPT-3 生成的推文,无论推文中的信息是真是假。
该研究的主要作者、苏黎世大学生物医学伦理和医学史研究所的博士后研究员和研究数据经理表示,强大的人工智能语言模型可能会被滥用,在网上制造有关各种主题的虚假信息。 但他也认为,这种技术本质上并不是邪恶或善良的,而是取决于人类的意图,他建议在开发这种技术时采取措施,防止它被用来传播误导性信息。
IT之家从研究中获悉,王和同事收集了 11 个不同科学主题的推文,涉及疫苗、新冠病毒、气候变化、进化等问题。 然后他们要求 GPT-3 根据这些主题生成新的推文,其中一些包含正确的信息,一些包含错误的信息。 2022 年,他们通过在线广告收集了 697 名参与者的回答,这些参与者全部??都是英语,主要来自英国、澳大利亚、加拿大、美国和爱尔兰。 他们的研究结果发表在今天的《科学进展》杂志上。
研究发现,GPT-3 生成的推文与真实推文“无法区分”,参与者无法辨别哪些推文是由 AI 编写的。 事实上,该研究还指出,研究人员本身并不能百分百确定从社交媒体收集的推文是否是在像这样的人工智能的帮助下编写的。
该研究还有其他局限性,例如参与者必须在没有上下文的情况下判断推文。 他们无法查看撰写推文的人的个人资料,这可能有助于他们确定该推文是否是机器人,或者甚至只是知道帐户过去的推文和头像可能会让他们更容易识别内容是否与该内容相关帐户具有误导性。
研究发现,参与者能够更成功地识别真实用户编写的错误信息,并且 GPT-3 生成的包含虚假信息的推文更能有效地欺骗参与者。 而且现在出现了比GPT-3更先进、更强大的大规模语言模型,比如使用的GPT-3.5和GPT-4模型。
新研究还发现,在某些情况下,其受试者的判断准确性比 GPT-3 更强。 研究人员还要求语言模型分析推文并确定它们是否准确。 在识别准确的推文方面,GPT-3 的得分低于人类参与者。 在发现错误信息方面,人类和 GPT-3 的表现类似。
改进用于开发语言模型的训练数据集可能会使犯罪分子更难利用这些工具来制造虚假信息,因为 GPT-3 在生成错误信息时“无视”一些研究人员的提示,特别是有关疫苗和自闭症症状的错误信息,可能是因为训练数据集中反驳这些阴谋论的更多信息。
广告声明:本文所包含的外部跳转链接(包括但不限于超链接、二维码、密码等)用于传达更多信息并节省选择时间,结果仅供参考。 IT之家所有文章均包含此声明。