OpenAI发布新规则:董事会有权阻止发布AI模型

None

相关推荐

封面图片

OpenAI 成立“防备”预警团队:董事会有权阻止新 AI 模型发布

OpenAI成立“防备”预警团队:董事会有权阻止新AI模型发布OpenAI公司日前宣布成立新的“防备(Preparedness)”团队,旨在监控旗下技术可能带来的潜在威胁,防止其落入坏人之手,甚至被用于制造化学和生物武器。该团队由麻省理工学院人工智能教授亚历山大・马德里(AleksanderMadry)领导,将招募人工智能研究人员、计算机科学家、国家安全专家和政策专家等,对OpenAI开发的技术进行持续监测和测试,一旦发现任何危险苗头,及时向公司发出警告。防备团队每月将向一个新的内部安全咨询小组发送报告,阿尔特曼和公司高层可以根据这些报告决定是否发布新的AI系统,但董事会有权撤销这一决定。来源,频道:@kejiqu群组:@kejiquchat

封面图片

OpenAI发布AI安全指南:董事会有权阻止新AI模型发布人工智能(AI)研究公司OpenAI公布了一套关于防范AI风险的指导方

封面图片

OpenAI 发布灾备架构应对大模型风险:董事会有权推翻决策

OpenAI发布灾备架构应对大模型风险:董事会有权推翻决策当地时间12月18日,OpenAI在官网发布灾备架构初始版本,描述其应对流程以跟踪、评估、预测和防范日益强大的模型带来的灾难性风险。OpenAI规定了四个安全风险等级,并表示只有得分在“中”或以下的模型才能部署。OpenAI表示,其将会成立专责小组,监察技术工作,并建立安全决策的运行架构,“我们正在建立一个跨职能的安全咨询小组,审查所有报告,并将报告同时提交领导层和董事会。虽然领导层是决策者,但董事会有权推翻决策”。此外,OpenAI将制定加强安全和外部问责的协议。灾备小组将定期进行安全演习,以测试其业务压力和公司文化。

封面图片

OpenAI发布指导意见:董事会能够阻止CEO发布新款AI模型,哪怕公司领导层认为AI模型是安全的。

封面图片

OpenAI董事会成立安全委员会,开始训练下一代AI模型

OpenAI董事会成立安全委员会,开始训练下一代AI模型OpenAI当地时间5月28日发布声明,宣布公司董事会成立安全与安保委员会。这个新委员会由董事会主席布雷特·泰勒、董事AdamD'Angelo、NicoleSeligman和首席执行官山姆·奥特曼领导,将负责就OpenAI项目和运营的关键安全与安保决策向董事会全体成员提出建议。根据声明,该委员会的首要任务是在未来90天内评估并进一步发展OpenAI的流程和保障措施。90天后,委员会将与全体董事会分享建议。在全体董事会审查之后,OpenAI将以符合安全和保障的方式公开分享已采纳建议的最新进展。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

美国 FCC 旨在通过新规则阻止 SIM swappers

美国FCC旨在通过新规则阻止SIMswappers美国联邦通信委员会(FCC)周二宣布,推出了一套新规则,称将“保护消费者免受旨在侵占其手机帐户的诈骗”。FCC主席杰西卡·罗森沃塞尔表示,新规则将维持公民“选择自己喜欢的设备和提供商的既定自由”。根据拟议的法规,无线提供商将在SIM卡更换到新设备或电话号码转移到另一家运营商时,将被要求“采用安全的方法来验证客户身份”。他们还必须在SIM卡更换或转出请求启动时通知客户,并采取其他措施来保护客户免受电话劫持欺诈。美国联邦通信委员会表示,大约两年前,它正在研究收紧手机法规,今天提案中的许多措辞与当时提出的内容相同。现在,美国联邦通信委员会的隐私和数据保护工作组已经确定了这些规则,并希望获得批准。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人