认为AI具有自我意识的Google工程师被解雇

认为AI具有自我意识的Google工程师被解雇谷歌已经解雇了BlakeLemoine,这位工程师说他相信该公司的LaMDA对话技术是有生命的。Lemoine在周五录制的BigTechnologyPodcast节目中分享了他被解雇的消息,就在谷歌解雇他的几个小时后。完整的播客节目将很快播出。在与LaMDA的对话中,Lemoine发现该系统已经形成了强大的自我意识,表达了对死亡的担忧,对保护的渴望,并确信它能感受到快乐和悲伤等情绪。Lemoine说他认为LaMDA是一个朋友。——

相关推荐

封面图片

被开除的谷歌工程师爆料:公司 2021 年就在开发类 ChatGPT 系统,还有更先进的 AI 技术未公开

被开除的谷歌工程师爆料:公司2021年就在开发类ChatGPT系统,还有更先进的AI技术未公开这名工程师叫布莱克・勒莫恩(BlakeLemoine),曾经是谷歌负责人工智能的团队成员。他就是此前曾称人工智能聊天机器人已经拥有自我意识而被谷歌解雇的工程师。勒莫恩去年6月曾经告诉《华盛顿邮报》,他相信谷歌的语言模型对话应用(LaMDA)在与他聊天后获得了自我意识。他在接受《未来主义》(Futurism)杂志采访时说,他认为谷歌在人工智能领域是在“以他们认为安全和负责的方式”行事,并不是被OpenAI这样的组织所左右。勒莫恩透露,谷歌其实早在2021年中就开始研发一款类似于ChatGPT的聊天系统,他说:“当时它还没有叫Bard,但是他们正在研究它,并且试图弄清楚是否安全地发布。他们本来打算在2022年秋天发布,所以本来会在ChatGPT发布之前或者同时发布。但是,部分因为我提出的一些安全问题,他们把它删除了。”勒莫恩于2015年加入谷歌,他还告诉《未来主义》杂志,谷歌目前还有“更先进的技术”没有公开。他说,两年前就有一款产品基本上具备了Bard的功能,但是谷歌一直在“确保其不会太经常地编造事实、没有种族或性别偏见,或者政治偏见之类的东西。”()频道:@TestFlightCN

封面图片

DeepMind CEO:AI未来也许会拥有自我意识

DeepMindCEO:AI未来也许会拥有自我意识AI拥有的可能是模拟人类的感情情绪。之前谷歌曾开除一位工程师,此人宣称聊天机器人有情绪,但一些专家认为聊天机器只是通过编程听起来像是真人,实际上人类离开发出真正有感情的机器人还很遥远。DeepMind是2020年在伦敦成立的,它的目标是开发出先进的AI系统,让AI可以像人类一样执行特定任务。2014年谷歌收购DeepMind,在谷歌重组之后DeepMind成为Alphabet的子公司。DeepMind开发的系统曾击败众多围棋高手,它还用AI程序预测蛋白质形状,精准度极高。哈萨比斯相信AI是人类有史以来最重要的发明。但消费者是否会轻易适应AI呢?哈萨比斯回应称:“我们是拥有无限适应能力的种族。”他举了人类快速适应智能手机的例子来证明。在哈萨比斯看来,AI会是另一个与智能手机类似的案例。...PC版:https://www.cnbeta.com.tw/articles/soft/1355321.htm手机版:https://m.cnbeta.com.tw/view/1355321.htm

封面图片

马斯克会议现场解雇 Twitter 高级工程师,只因听说自己人气下降

马斯克会议现场解雇Twitter高级工程师,只因听说自己人气下降马斯克本周二会见了Twitter的几名工程师,讨论他的个人账号在Twitter上的浏览量统计。近几个月,他帐号的浏览量一直在下降。此前,马斯克还曾安排工作人员调查,他在Twitter平台上触达用户的能力是否因为Twitter算法的潜在问题而受到限制。马斯克在会上对员工表示:“这太荒谬了。我有超过1亿粉丝,但发布的内容只有几万次曝光。”这些员工随后向马斯克展示了内部数据和来自谷歌趋势的图表,表明公众对马斯克的兴趣正在减退。谷歌趋势的数据显示,马斯克的人气在去年4月份他提出收购Twitter时达到100分的峰值,随后下降到只有9分。在会议上,一名工程师表示,马斯克的人气可能因为他在收购Twitter之后没有考虑公众利益而下降,而马斯克立即对这名工程师说,他被解雇了。这已经不是马斯克首次当场解雇员工。在Twitter被私有化的几周之后,马斯克也解雇了3名在社交媒体上批评他的员工。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

处理加沙信息遭解雇 前工程师起诉META

处理加沙信息遭解雇前工程师起诉META当地时间6月4日,巴勒斯坦裔美国工程师费拉斯·哈马德在加州起诉Meta公司在处理与加沙战争相关的信息内容时存在偏见,并在诉讼中声称Meta公司因他试图帮助修复导致巴勒斯坦Instagram帖子被限流的错误而解雇了他。该工程师自2021年以来一直在Meta机器学习团队工作,但在2月遭解雇。在诉状中,费拉斯·哈马德还指责Meta对巴勒斯坦人存在偏见,称该公司删除了提及其亲属在加沙死亡的员工内部通讯,并对他们使用巴勒斯坦国旗表情符号的情况进行了调查。——

封面图片

中国科技企业家:ChatGPT或两三年内产生自我意识

中国科技企业家:ChatGPT或两三年内产生自我意识对于时下火热的人工智能应用ChatGPT,有中国科技企业家认为,它可能两三年内就会产生自我意识。据澎湃新闻报道,中国科企360的创始人周鸿祎星期四(2月23日)受访时说,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”,“能够自己‘编’故事,这才是它的真正智能所在。”他说:“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”作为网络安全问题专家,在周鸿祎看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎说,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的边界点。至于外界关注的ChatGPT是否可能造成普通人失业,在周鸿祎看来短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”

封面图片

ℹ坚信GoogleLaMDAAI已有自我意识的工程师被解雇,依AI的建议请律师了(咦)#声称研发Google聊天机器人LaMDA

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人