陶哲轩自曝用了「满血」GPT-4:人类对信息技术的期待全部需要校准#抽屉IT

None

相关推荐

封面图片

OpenAI左脚踩右脚登天 让GPT-4帮人类训练GPT-4

OpenAI左脚踩右脚登天让GPT-4帮人类训练GPT-4OpenAI公布,其研究人员训练了一个基于GPT-4的模型,它被称为CriticGPT,用于捕捉ChatGPT代码输出中的错误。简单来说就是,CriticGPT让人能用GPT-4查找GPT-4的错误OpenAI称,如果通过CriticGPT获得帮助审查ChatGPT编写的代码,人类训练者的审查效果比没有获得这种帮助的人强60%;在CriticGPT帮助下,他们得出的批评结论比自己单独做的更全面。群友:狗溜狗关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

陶哲轩:初学者不宜用AI工具做专家级任务,GPT对专家帮助不大#抽屉IT

封面图片

GPT-4、Llama 2比人类更懂“人类心理”?最新研究登上Nature子刊

GPT-4、Llama2比人类更懂“人类心理”?最新研究登上Nature子刊这些发现不仅表明大型语言模型(LLMs)展示出了与人类心理推理输出一致的行为,而且还突出了系统测试的重要性,从而确保在人类智能和人工智能之间进行非表面的比较。相关研究论文以“Testingtheoryofmindinlargelanguagemodelsandhumans”为题,已发表在Nature子刊NatureHumanBehaviour上。GPT更懂“误导”,Llama2更懂“礼貌”心智理论,是一个心理学术语,是一种能够理解自己以及周围人类的心理状态的能力,这些心理状态包括情绪、信仰、意图、欲望、假装等,自闭症通常被认为是患者缺乏这一能力所导致的。以往,心智理论这一能力被认为是人类特有的。但除了人类之外,包括多种灵长类动物,如黑猩猩,以及大象、海豚、马、猫、狗等,都被认为可能具备简单的心智理论能力,目前仍有争议。最近,诸如ChatGPT这样的大型语言模型(LLMs)的快速发展引发了一场激烈的争论,即这些模型在心智理论任务中表现出的行为是否与人类行为一致。在这项工作中,来自德国汉堡-埃彭多夫大学医学中心的研究团队及其合作者,反复测试了两个系列的LLMs(GPT和Llama2)的不同心智理论能力,并将它们的表现与1907名人类参与者进行比较。他们发现,GPT模型在识别间接要求、错误想法和误导三方面的表现,可以达到甚至超越人类的平均水平,而Llama2的表现还不如人类。图人类(紫色)、GPT-4(深蓝色)、GPT-3.5(浅蓝色)和LLaMA2-70B(绿色)在心智理论测试中的表现。在识别失礼方面,Llama2要强于人类,但GPT表现不佳。研究团队认为,Llama2表现好是因为回答的偏见程度较低,而不是因为真的对失礼敏感,GPT表现较差其实是因为对坚持结论的超保守态度,而不是因为推理错误。AI的心智理论已达人类水平?在论文的讨论部分,研究团队对GPT模型在识别不当言论任务中的表现进行了深入分析,实验结果支持了GPT模型在识别不当言论方面存在过度保守的假设,而不是推理能力差。当问题以可能性的形式提出时,GPT模型能够正确识别并选择最可能的解释。同时,他们也通过后续实验揭示了LLaMA2-70B的优越性可能是由于其对无知的偏见,而不是真正的推理能力。此外,他们还指出了未来研究的方向,包括进一步探索GPT模型在实时人机交互中的表现,以及这些模型的决策行为如何影响人类的社会认知。他们提醒道,尽管LLM在心智理论任务上的表现堪比人类,但并不意味着它们具有人类般的能力,也代表它们能掌握心智理论。尽管如此,他们也表示,这些结果是未来研究的重要基础,并建议进一步研究LLM在心理推断上的表现会如何影响个体在人机交互中的认知。...PC版:https://www.cnbeta.com.tw/articles/soft/1431713.htm手机版:https://m.cnbeta.com.tw/view/1431713.htm

封面图片

GPT-4 ,人类迈向AGI的第一步(上半)

GPT-4,人类迈向AGI的第一步(上半)文章节选+翻译了本月最重要的一篇论文的内容该论文是一篇长达154页的对GPT-4的测试。微软在很早期就接触到了GPT-4的非多模态版本,并进行了详尽的测试。论文不管是测试方法还是测试结论都非常精彩,强烈推荐https://orangeblog.notion.site/GPT-4-AGI-8fc50010291d47efb92cbbd668c8c893

封面图片

陶哲轩:用ChatGPT写代码太省时间了#抽屉IT

封面图片

陶哲轩6000字详述:计算机辅助数学证明的历史

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人