专家联名警告AI对人类“生存威胁”
中国信通院云大所开源和软件安全部主任郭雪表示,AI大模型的本质决定了开源是其必经之路。为充分发挥大型模型的通用性优势,促进大型模型技术在产业中真正落地,中国信息通信研究院联合产业各方共同编制“纸鸢”开放人工智能模型许可证,下一步将发布《纸鸢开放人工智能模型许可证(征求意见稿)》。
有业内人士认为,此举有助于政府对AI的监管,同时也在一定程度上避免“重复造轮子”。
据智东西统计,自2022年11月ChatGPT发布至5月29日,国内至少有55个类GPT大模型已经推出或马上面世。其中,在AI企业发布的大模型中,最受关注的无疑是NLP领域龙头企业科大讯飞,其于5月6日推出的“星火”大模型已经开始内测。据发布会上,科大讯飞董事长刘庆峰释放的消息,6月9日,“星火”大模型将迎来第一次升级。
行业高管与知名学者警告AI对人类“生存威胁”
据界面新闻,非营利组织“人工智能安全中心”(Center for AI Safety)5月30日在其网站刊出多位行业高管、学者与公众人物联名签署的声明,指出“减轻AI(给人类)带来的灭绝风险应成为全球性的优先事项,与大流行病及核战争等其他影响社会的大规模风险同等级别”。
联名签署人包括OpenAI首席执行官山姆·阿尔特曼、谷歌DeepMind首席执行官德米斯·哈萨比斯和Anthropic首席执行官达里奥·阿莫迪三大AI企业高管,“深度学习三剑客”中的两人、图灵奖得主杰弗里·辛顿与约书亚·本吉奥,微软首席技术官凯文·斯科特、OpenAI首席技术官米拉·穆拉蒂与谷歌负责技术和社会事务的高级副总裁詹姆斯·马尼卡,清华大学智能产业研究院(AIR)院长张亚勤以及中国科学院自动化研究所研究员、人工智能伦理与治理研究中心主任曾毅也参与联名。
自我监管 凭证入场
早在5月中旬,OpenAI的首席执行官山姆·阿尔特曼(Sam Altman)在美国国会针对人工智能监管的听证会上,反复强调,AI的强大,让监管在现在看起来就非常重要,而且他很同意需要一个新的机制来处理AI的监管问题。他甚至有备而来地在这次听证会上建议美国政府应该如何监管像OpenAI的公司,包括提出了三点计划:
? 组建一个新的政府机构,负责为大型AI模型颁发许可,如果有公司模型不符合政府标准,该机构可以撤销该公司的许可证;
? 为 AI 模型创建一套安全标准,包括对其危险能力的评估。模型必须通过某些安全测试,例如它们是否可以“自我复制”和“随意渗透”,即开始自主行动不受控制。
? 要求独立专家对模型在各种指标上的表现进行独立审计。
不过,对于当下开源界和企业界对AI模型最大的争议之一——训练数据
是否应该透明化的问题,他却没有正面回答;也没有对另外一些颇有争议的问题提出回应,比如AI是否可以基于有版权的作品进行训练,以及AI开发者该如何补偿这些作品的创作者。
奥特曼此前曾表示, “需要一部针对人工智能的新法律”。而这次,他也非常清楚地表明,230条款不是正确的监管人工智能的框架。(美国《通信规范法案
》第230条被视为互联网行业的法律基石:如果用户在网站上发布虚假、有害内容,网站无需对用户发布的有害信息承担连带责任)。
奥特曼还警告说,如果AI出错了,那后果会非常严重。“对于一项非常新的技术,我们需要一个新的框架。“当然,我们这样的公司对我们推出的工具负有很多责任,但工具用户也一样。”
不过网友对他的这番话也不全像议员们那样买账。有推特网友就讽刺说,奥特曼的实际想法其实是,”现在OpenAI领先了,政府快来管管我们的竞争者吧。“ 许多 AI研究人员也认为这是一种反竞争行为,因为”凭证入场“对大公司有利,却可能难倒小公司、研究人员和免费的开源替代方案。
招商证券大模型采购“半日游” 网友:利好国产大模型
5月29日下午三点,招商局集团电子招投标平台发布《招商证券微软大语言模型服务采购项目-询价采购公告》,采购人为招商证券股份有限公司。然而至当晚九点,据招商局集团电子招标采购交易平台显示,该采购项目已终止,终止原因为采购需求变更。
招商证券原计划引进微软Azure-Open AI大语言模型,根据其业务需求场景进行AI能力研究开发工作,预先研究及论证大语言模型在量化投研、精准营销、财富管理、客户服务、智能投顾、人员效能等场景上产生的应用价值。
招商证券此举抓住了人工智能技术的风口,值得肯定。我们也可以看到,证券机构也越来越多的采用大模型技术应用,认可人工智能技术对业务发展的帮助。
此次招标被快速终止后,引发网友广泛讨论。
有网友称:“下午看到招标公告感觉不可思议”、“一直强调数据安全,国产崛起被招商当耳边风了。
也有网友称,此举利好国产大模型,招商证券放弃采购国外大模型技术,或许是为了选择国产技术。
TOPS
- 一周排行榜
- 一周排行榜