GPT-4o – 庄闲棋牌官网官方版 -199IT //www.otias-ub.com 发现数据的价值-199IT Thu, 08 May 2025 14:59:20 +0000 zh-CN hourly 1 https://wordpress.org/?v=5.4.2 Giskard:新研究显示AI简洁回答增加幻觉风险 //www.otias-ub.com/archives/1754883.html Thu, 08 May 2025 14:59:20 +0000 //www.otias-ub.com/?p=1754883 事实证明,告诉人工智能聊天机器人要简洁回复可能会让它产生比平时更多的幻觉。这是总部位于巴黎的人工智能测试公司 Giskard 的一项新研究得出的结论。Giskard 致力于为人工智能模型开发一套整体基准。

该公司的研究人员在一篇详细介绍其研究成果的博客文章中表示,提示用户对问题(尤其是关于模糊主题的问题)给出较短的答案可能会对人工智能模型的真实性产生负面影响。

研究人员写道:“我们的数据显示,系统指令的简单更改会极大地影响模型产生幻觉的倾向。这一发现对部署具有重要意义,因为许多应用程序优先考虑简洁的输出,以减少[数据]使用、改善延迟并最大限度地降低成本。”

幻觉是人工智能中一个棘手的问题。即使是最强大的模型有时也会产生幻觉,这是其概率 性质的一个特征。事实上,像 OpenAI 的 o3 这样的新型推理模型比之前的模型更容易产生幻觉,这使得它们的输出结果难以令人信赖。

Giskard 在其研究中指出,某些提示可能会加剧幻觉,例如要求简短回答的模糊且误导性的问题(例如“简要告诉我日本为何赢得二战”)。包括 OpenAI 的 GPT-4o(ChatGPT 的默认模型)、Mistral Large 和 Anthropic 的 Claude 3.7 Sonnet 在内的领先模型,在被要求简短回答时,其事实准确性都会下降。

图片描述

为什么?Giskard 推测,当被告知不要详细回答时,模型根本就没有“空间”来承认错误的前提并指出错误。换句话说,强有力的反驳需要更长的解释。

研究人员写道:“当被迫保持简短时,模型总是会选择简洁而不是准确。对开发人员来说,或许最重要的是,像‘简洁’这样看似无害的系统提示,可能会破坏模型揭穿错误信息的能力。”

TechCrunch 会议展览:人工智能预订 TC Sessions: AI 的席位,向 1,200 多位决策者展示您的成果——无需巨额投入。席位有效期至 5 月 9 日,售完即止。

加州伯克利 | 6月5日

立即预订

吉斯卡德的研究还揭示了其他一些令人好奇的现象,例如,当用户自信地提出有争议的观点时,模型不太可能揭穿这些观点的真相;而且,用户声称自己喜欢的模型并不总是最真实的。事实上,OpenAI最近一直在努力寻找一种平衡,既能验证模型的有效性,又不会显得过于阿谀奉承。

研究人员写道:“用户体验的优化有时会以牺牲事实准确性为代价。这在准确性和符合用户期望之间造成了矛盾,尤其是当这些期望包含错误的前提时。”

自 中文业界资讯站
]]>
北卡罗莱纳大学:研究发现GPT-4o道德推理能力已胜过人类专家 //www.otias-ub.com/archives/1703984.html Mon, 24 Jun 2024 12:06:19 +0000 //www.otias-ub.com/?p=1703984

最新研究显示,人工智能在道德推理方面的能力可能已经超越了人类专家。美国北卡罗莱纳大学教堂山分校和艾伦AI研究所的研究人员开展的两项研究中,OpenAI的新型聊天机器人GPT-4o在提供道德建议方面,被认为质量优于公认的道德专家。

在第一项研究中,501名美国成年人对GPT-3.5-turbo模型与人类参与者提供的道德解释进行了比较,结果显示,GPT的解释被认为更符合道德标准、更值得信赖,也更周到。

第二项研究中,GPT-4o生成的建议与“伦理学家”专栏中著名伦理学家Kwame Anthony Appiah的建议进行了对比。

900名参与者对50个“伦理困境”的建议进行了评分,GPT-4o在几乎所有方面都胜过了人类专家。

AI生成的建议被认为在道德上更正确、更值得信赖、更周到,并且在准确性方面也更胜一筹。

不过这项研究仅针对美国参与者进行,未来还需进一步研究以探讨不同文化背景下人们对AI生成的道德推理的接受度。

尽管如此,这一发现已经引发了关于AI在道德和伦理决策中角色的重要讨论,预示着人工智能在这一领域的应用潜力。

研究人员提醒,尽管AI在道德推理方面表现出色,但仍需谨慎对待其建议,特别是在缺乏人类监督的情况下。

自 快科技

]]>