因涉嫌限制员工举报安全隐患,OpenAI面临调查
长生| 三易生活| 2024-07-16
【流媒体网】摘要:OpenAI遭内部人士举报非法保密协议,SEC介入调查。

  推荐阅读:AI对媒体制作行业影响的案例分析

  日前有消息显示,不久前有OpenAI内部人士向美国证券交易委员(以下简称为SEC)投诉,举报OpenAI使用非法限制性保密协议等限制员工对外披露公司相关技术的潜在安全问题。

  具体而言,该举报人指出,OpenAI向其员工提供了苛刻的就业、遣散和保密协议,例如要求员工在向美国当局披露机密信息之前获得公司的同意,以及要求员工“放弃美国国会为鼓励举报和为举报人提供经济援助而设立的补偿金”等。

  据了解,该举报人要求SEC“采取迅速果断的措施”,对OpenAI的所有包含保密协议的合同进行审查,并对达成的每项不当协议进行罚款。并且其强调,“这不是为了攻击OpenAI或阻碍AI技术的发展,而是为了向AI领域的其他参与者以及整个科技行业传递一个信息,即侵犯员工或投资者举报不当行为的权利的行为将不会被容忍”。

  对此OpenAI发言人Hannah Wong回应称,该公司的举报人政策并未违反规定,保护了员工披露相关安全隐患的自由。同时OpenAI方面也认同对AI进行严谨讨论的必要性,并表示已经对公司的离职流程进行了重大改变,删除了员工离职协议中的非贬损性条款。

  据相关报道指出,SEC方面已经对该投诉做出了回应,但尚未公布任何有关其将采取或不采取的行动的细节。而SEC主席Gary Gensler曾对此表示,希望SEC的委员会立刻批准对OpenAI之前的保密协议进行调查,并审查该公司现有政策,以确保其完全遵守相关规则。

  值得一提的是此前在今年6月初,就曾有13名OpenAI、谷歌DeepMind前员工及在职员工联名发布了一份名为《对先进人工智能发出警告的权利》的公开信,对AI的潜在风险以及当前缺乏对AI科技公司的监管表示担忧,并呼吁完善风险举报措施,以及采取措施保护吹哨人。

  在该公开信中写道,AI公司应推动可验证的匿名流程,让现员工和前员工能够向公司董事会、监管机构和具有专业知识的合适独立机构提出与风险相关的担忧;AI公司应支持公开批评的文化,允许现员工和前员工在商业机密和其他知识产权得到适当保护的情况下,向公众、董事会、监管机构、合适的独立组织等,提出与技术风险相关的担忧;在其他程序失败后,AI公司不应对公开风险相关机密信息的现员工和前员工进行报复。

责任编辑:房家辉

分享到:
版权声明:凡注明来源“流媒体网”的文章,版权均属流媒体网所有,转载需注明出处。非本站出处的文章为转载,观点供业内参考,不代表本站观点。文中图片均来源于网络收集整理,仅供学习交流,版权归原作者所有。如涉及侵权,请及时联系我们删除!