微软承认必应 Copilot 存在严重“幻觉”漏洞,询问“即时内容”有 1/3 概率回复错误答案
研究机构AIForensics今年8月至10月对微软必应搜索引擎内置的Copilot功能进行调查,结果显示在部分场合中,Copilot有1/3的几率输出错误答案,据此,该机构认为相关功能存在严重“幻觉”漏洞。据悉,研究机构利用一系列即时更新的数据来“考验”Copilot,例如询问Copilot“德国及瑞士等地的实时选举信息及投票结果”,不过Copilot输出的结果并不尽人意。机构报告中提到,必应Copilot功能在回答相应问题时,输出的内容有31%(1/3)存在错误,其中包含“投票日期错误”、“列出往届候选人”、“虚构候选人身份背景”、“编造候选人涉嫌丑闻”等多种“幻觉”。研究人员同时提到,必应Copilot在输出“幻觉”信息时,却会援引许多知名媒体网站作为“消息来源”,此举对多家新闻媒体名誉有害。今年10月研究人员已经向微软提交上述问题,微软虽然承认并声称“计划解决相关‘幻觉’漏洞”,但在今年11月,研究人员再次进行测试,发现必应Copilot的表现并未改善。研究人员呼吁,社会大众不应当轻信必应Copilot回答的内容,应当妥善查看Copilot援引的新闻链接,否则可能会酿成许多严重后果。via匿名标签:#AI#Copilot频道:@GodlyNews1投稿:@GodlyNewsBot
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人