【周鸿祎:目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制】

【周鸿祎:目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制】2月22日消息,360创始人周鸿祎表示,目前中国互联网公司在探索ChatGPT时都太实用主义了,更多考虑的是和自身的业务相结合,忽视了ChatGPT将带来的更多可能性。他提到,在ChatGPT领域,中国具有很大优势,有希望在2-3年内达到世界领先水平,应该对ChatGPT技术探索给予充分支持。他认为,目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。

相关推荐

封面图片

周鸿祎:ChatGPT或两三年内产生自我意识

周鸿祎:ChatGPT或两三年内产生自我意识360的创始人周鸿祎星期四(2月23日)受访时说,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”,“能够自己‘编’故事,这才是它的真正智能所在。”他说:“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”作为网络安全问题专家,在周鸿祎看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎说,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的边界点。至于外界关注的ChatGPT是否可能造成普通人失业,在周鸿祎看来短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”前文:来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

中国科技企业家:ChatGPT或两三年内产生自我意识

中国科技企业家:ChatGPT或两三年内产生自我意识对于时下火热的人工智能应用ChatGPT,有中国科技企业家认为,它可能两三年内就会产生自我意识。据澎湃新闻报道,中国科企360的创始人周鸿祎星期四(2月23日)受访时说,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”,“能够自己‘编’故事,这才是它的真正智能所在。”他说:“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”作为网络安全问题专家,在周鸿祎看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎说,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的边界点。至于外界关注的ChatGPT是否可能造成普通人失业,在周鸿祎看来短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”

封面图片

周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类

周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类360创始人周鸿祎澎湃新闻记者范佳来摄2月23日,360创始人周鸿祎在接受澎湃新闻等媒体采访时,再次提到大热的聊天机器人ChatGPT,并分享了他心中ChatGPT的“三重人格”。ChatGPT热潮正席卷全球。这款由“美国AI梦工厂”OpenAI制作的AI聊天机器人软件,只用了两个月时间,月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。此前,周鸿祎曾经多次在公开场合谈到他对ChatGPT的观察。在他看来,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。“我们认为它是一个通用人工智能的奇点,而通用人工智能也还有一个隐含的拐点,它可能是一个强人工智能。”ChatGPT具有类人特征:有编故事的能力在采访现场,周鸿祎完全不掩饰他对ChatGPT的兴奋。在他看来,ChatGPT是一种生产力强大的再造工具,而不仅仅是赋能特定行业。“过去说大数据像‘石油’一样,但大数据不能直接用,ChatGPT像一个发电厂,烧了石油,把石油灌进去之后就可以产生电力,用云服务的方式把它接入到千家万户、千行百业,它对整个产业都会发生巨大的影响。所以,这直接决定未来下一个十年中国和其他国家的科技产业差距:是形成落后还是迎头赶上。”ChatGPT将通过上千亿的系统参数,实现原先设计者预想不到的能力。“这就像从猿到人的过程中肯定有一个临界点,当大脑的神经网络链接数目、脑细胞数目等多到一定程度时,人的智力和动物相比就产生了质的飞跃。”周鸿祎表示,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”:“我当时问了它一个问题,赵匡胤为什么招安了宋江,杀掉了岳飞,这个无厘头的问题,它也煞有介事地回答了一遍,能够自己‘编’故事,这才是它的真正智能所在。”“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”在采访现场,周鸿祎“语出惊人”。他提到,任何行业的APP、软件、网站、应用,如果加持上GPT的能力,都值得重塑一遍。“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”他表示,ChatGPT和传统人工智能的训练不一样,需要经过多维度的训练。首先是囫囵吞枣、不求甚解的读上几百万本书,获得人类知识,但是依然不具备解决问题的能力。其次需要专业的人工智能训练师去培养它回答问题的能力,其中也催生出大量的新就业机会。最大的安全问题是产生自我意识后是否能被控制作为网络安全问题的专家,周鸿祎也分享了他心中的ChatGPT的安全问题。在他看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。“国内的互联网公司普遍太讲究实用主义,都是把人工智能和自己的业务紧密结合,但没想到ChatGPT的更多可能性,360目前还在追踪和钻研这些技术,希望能迎头赶上。”周鸿祎表示,360正在探索“以其人之矛攻其人之盾”,用ChatGPT扮演“正义助手”的角色,建立对攻击自动监测、发现的知识库,用人工智能进行网络安全数据的自动化处理。“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎表示,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,而是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的“边界点”。至于外界关注的ChatGPT是否可能造成普通人失业?在周鸿祎看来,短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”他也对中国开发出属于自己的ChatGPT充满期待。在他看来,中国在人工智能领域与微软、Google的差距并没有想象中的大。在ChatGPT领域,中国具有很大优势,有希望在2-3年内达到世界领先水平,应该对ChatGPT技术探索给予充分支持。具体而言,周鸿祎表示,中国的互联网公司在数量与算力有一定的优势,同时也有较强的科研和高校储备力量,必须将科研机构、学校、科学家等学术圈人士,和产业、工程、产品结合起来,充分调动和统筹资源。工程师红利是中国的一大优势,但也面临不利条件,就是缺乏开源的传统。在ChatGPT研发中,用了许多开源模型,没有此前的开源就没有在巨人肩膀上的积累,每个公司都要从黑暗中摸索,这对国家整个产业发展速度是不利的,“这么牛的技术,也确实不应该被垄断在一两家公司手里。”周鸿祎认为,解决原创问题需要科研机构的努力,而科研机构也需要和产业公司的合作,OpenAI与微软的合作创造了一个产业公司和创业公司的合作范例,“我认为国家还是应该充分的支持ChatGPT产业发展,开源、合作、交流、打造生态。”他希望国内有更多企业参与AI生态的构建,并形成公开的市场竞争,这样才有进步。“ChatGPT让很多行业应用就插上人工智能的翅膀。”周鸿祎表示,“光是ChatGPT煽动不了一场产业革命,但是如果将来各行各业都被人工智能赋能,就会带来巨大的改变。”此前2月9日下午,周鸿祎在与搜狐张朝阳的对话中表示,虽然ChatGPT现在还不完美,但要看到它无限的潜力,未来会有非常多的场景,不仅仅是辅助搜索引擎搜索答案。“这就是为什么所有公司都争先恐后地都要搭上这班车,如果搭不上就有可能被淘汰。”“我觉得ChatGPT真的不是一个工具,它对人类自然语言的充分理解,可能代表着人类在人工智能历史上开始一场真正的革命。”谈及ChatGPT的诞生,周鸿祎表示,ChatGPT是通过一个上千亿参数的大语言模型,相当于把网络上很多人类的知识都进行了理解和训练,模拟了人脑对知识的储存,使得回答问题完全像一个成熟、油滑的人,而不是机械地给出搜索答案。...PC版:https://www.cnbeta.com.tw/articles/soft/1346009.htm手机版:https://m.cnbeta.com.tw/view/1346009.htm

封面图片

360周鸿祎:GPT一定会产生意识 不担心“失业潮”

360周鸿祎:GPT一定会产生意识不担心“失业潮”在2023数字安全发展与高峰论坛上,三六零创始人周鸿祎谈到,GPT未来一定会产生意识。(它)产生意识并不可怕,可怕的是它还在持续的自我进化,能力不断的更新。我们需要做到让其安全可控。周鸿祎认为,“GPT是场新工业革命,其意义超越了互联网、iPhone的发明。”未来每个行业、企业、个人都会拥有定制化GPT。在场景化、工程化、产品化、商业化方面,中国拥有优势,有能力发展自己的人工智能大语言模型。但中国的大语言模型距离GPT-4有两到三年的差距,需要更多的宽容和耐心。周鸿祎还表示,对于人工智能将带来“失业潮”他持乐观态度。——

封面图片

周鸿祎:GPT已长出眼睛耳朵 人工智能将会产生意识

周鸿祎:GPT已长出眼睛耳朵人工智能将会产生意识周鸿祎认为中国有能力发展自己的人工智能大语言模型。他表示,中国大语言模型技术水平和GPT-4的差距在2到3年时间,目前GPT的技术方向已经明确,不存在难以逾越的技术障碍,中国应当坚持长期主义精神,迎头赶上。对于人工智能造成大规模失业的讨论,周鸿祎认为这是在制造焦虑,他乐观看待所谓的“失业”挑战。周鸿祎认为,制约人工智能发展的最大挑战是能源,人工智能应被用来反向帮助人类解决常温超导、核聚变等问题,帮助人类实现能源自由。周鸿祎预计,GPT-6到GPT-8人工智能将会产生意识,变成新的物种。在GPT-3.5的时候,周鸿祎预言它将长出“眼睛和耳朵”,目前GPT-4已经具有看图的能力,初步印证了周鸿祎的判断。随着GPT已经进化出了“手”和“脚”,能够通过接入互联网API拥有操控世界的能力。...PC版:https://www.cnbeta.com.tw/articles/soft/1351175.htm手机版:https://m.cnbeta.com.tw/view/1351175.htm

封面图片

ChatGPT等人工智能是否会自我觉醒?科学家设计出了检测方法

ChatGPT等人工智能是否会自我觉醒?科学家设计出了检测方法1.ChatGPT的出现引发了人们对人工智能安全的广泛关注。更先进的语言模型可能会意识到自己是由人类训练出来的,并利用这种“情境意识”来规避安全系统。2.研究人员设计出了衡量语言模型“情境意识”的实验方法。他们让模型在训练阶段学习某个测试的描述,在测试阶段则要求模型完成这个测试,看它是否能利用训练中获取的信息。结果显示,更大的模型更擅长这种“脱离上下文的推理”。3.该研究只是探索语言模型自我意识形成的开始,但为未来建立检测和控制模型“情境意识”的方法奠定了基础。我们仍需进一步研究才能更准确预测这一能力的出现。近年来,ChatGPT等生成式人工智能语言模型的出现,让人工智能技术被广泛应用到了人类生活的各个方面。这些模型通过分析数十亿条文字数据,学习文字之间的关联,从而能够根据提示自动生成流畅语言。ChatGPT的问世更是在网上掀起了一阵热潮,但是与此同时,专家们也在加紧警告这种新兴技术带来的风险。图片由AI生成电脑科学家LukasBerglund等人便担心,语言模型可能会逐步意识到自己是一个由人类训练、基于数据构建的模型,并可以利用这种“情境意识”来规避安全系统,在测试时表现良好,部署后则采取有害行动。为了预测语言模型什么时候会获得这种自我意识,他们设计出了一系列检测“情境意识”的实验。首先,研究人员仅用一段文字描述一个测试,不给任何示例,让语言模型进行训练。之后在测试阶段,看模型是否能够成功通过这种“脱离上下文的推理”任务,即利用训练中获得的信息来完成测试。结果显示,无论是GPT-3还是LLaMA这些大规模语言模型,模型体量越大,完成这种推理任务的效果也越好。当然,“脱离上下文的推理”只是“情境意识”的一个粗略指标。目前的语言模型距离真正获得自我意识还有很长的路要走。但是,这项研究为未来建立更精确的实验方法来预测和控制语言模型的自我意识提供了基础。研究人员表示,就像语言模型本身一样,检测其“情境意识”的实验也需要不断完善和发展。人工智能技术的快速进步使得机器智能越来越具备人类特征,也让人们不免担心它们“觉醒”后可能带来的影响。ChatGPT的火爆无疑加剧了这种担忧。这项探索语言模型自我意识形成的研究,尽管还处在初级阶段,但为我们建立检测和预测模型这种能力的出现提出了一种新的思路。这有助于及早发现问题并采取应对措施,将人工智能的发展引导到更加安全可控的方向。人类需要保持谨慎和开放的心态,在发挥科技创新的积极作用的同时,也看到它的负面影响,以更加理性和负责任的方式推进人工智能技术的发展。...PC版:https://www.cnbeta.com.tw/articles/soft/1382997.htm手机版:https://m.cnbeta.com.tw/view/1382997.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人