AI蕴藏万亿价值,防范风险迫在眉睫
在现场,北京智源研究院创始理事长张宏江向听众展示了一段由OpenAI旗下Sora生成的视频——汽车快撞山时会往左拐,避开悬崖会往右拐。这段视频由一段文字生成,没有使用3D模型加持,却显得如此逼真。不仅如此,张宏江展示的另一段由多模态大模型生成的视频,还能判断指出某段视频是由AI生成的,理由是樱花和下雪天不可能发生,且自然的雪不可能下得如此均匀。
“未来的多模态大模型一定不止于进行视频的生成和剪辑,不止于生成电影或者电视剧,更重要的是可以用来做机器的大脑,用来识别外围的世界,用于自动驾驶,将今天的信息系统、模型系统应用到未来的行动系统。”张宏江说。
张宏江认为,大模型会重写所有的应用。模型的能力一两年提升一代,训练成本每18个月变成之前的四分之一,新摩尔定律将带来大模型快速的普及。生产AI芯片的英伟达的股票在过去12个月突飞猛涨,成为世界前三最有价值的公司。芯片的需求会带动数据中心,整个大模型产业链正在快速地发展成长起来。
采埃孚集团提供电动车和智能车的系统,其董事会主席、首席执行官柯皓哲在现场介绍,AI已经在改变着他们的工作方式、工程师编码软件方式、优化产品和流程的方式。他们用AI测量电动车发动机的转速,训练自动驾驶系统。过去几周,还向全球16万名员工提供了微软的Copilot功能,用于写东西、做产品。
麦肯锡公司全球总裁鲍勃·斯腾菲尔斯指出,AI技术如果应用于63个主要领域,预计将创造2.6万-3.4万亿美元的价值,主要集中在制造、市场营销、软件工程、研发等四个领域。而基于AI技术,到2030年美国预计有30%的工作都可以实现自动化,这意味着大概有1200万份工作需要转型,其中不乏高收入工作。
香港中文大学(深圳)前海国际事务研究院院长郑永年表示,对于AI技术,欧盟缺少大型本土互联网公司,所以是规制导向。而目前为止,美国是AI领域规制最少的国家。新加坡、越南也主张利用AI为经济发展服务,所谓“全国开放、有效管理”模式。但郑永年提醒,发展AI与治理规制还是应该同时发展。
Verimag实验室创始人、2007年图灵奖得主约瑟夫·希发基思表示,对于AI的终极目标,一种观点认为应该构建超越人类思维能力,在医疗保健、金融、交通运输和制造业等领域做出有效决策的超级智能代理。另一种观点则认为,应当构建具有人类水平智能的机器,替代人类工作,如自动驾驶汽车、智能工厂等等。
约瑟夫·希发基思说,人工智能本身既不是好的,也不是坏的,关键在于明智地进行使用,通过规范来预防风险。此外,如果不能确保系统是以公正、中立的方式使用可靠信息,则不要将决策权交给系统。需要考虑,技术的进步和创新是不是意味着人类技能的丧失?如果人类变得越来越懒惰,将是糟糕的前景。
“AI的本质,实际上来源于我们所有人,来源于你们在网上分享的思想。它能够自我完善,甚至以光速的速度来自我完善。”福特斯克金属集团执行董事长安德鲁·福瑞斯特指出,人类的DNA可能几十年甚至几百年才能够有一些改善,而AI能够以光速不断完善。如果不加以监管,人类的智力绝对会被超过。
张宏江也发出警告,未来通用人工智能的发展可能产生一些风险,甚至导致人类灭绝。如果以GPT-4.0作为一个节点,AI的智力IQ跟人类的平均IQ已经比较相近了。再往下走,或许不再是虚假信息或是消灭一些工作,而是奇点的来临。
清华大学智能产业研究院院长、中国工程院院士张亚勤建议,将所有数字智能体进行AI标识;机器人必须映射到个人或者公司等法定实体,可以追责;对大模型建立监管的分级体制;各方将10%的研究经费投入大模型风险研究;此外,全球各国需要将人工智能和气候、疫情、核武器作为同样的社会风险来对待。
张宏江介绍,前段时间,数十位AI领域的顶级中外
专家在华签署了《北京AI安全国际共识》,画出几条基本红线:禁止AI自主复制或者改进;禁止AI寻求权力;禁止使用AI协助武器,尤其是大规模杀伤性武器或者生化武器的研制;禁止AI欺骗。而要做到这些,需要全球政府和从事AI研发的企业共同推动。
內.容.來.自:中`國*碳-排*放*交*易^網 t a npai fa ng.com
【版权声明】本网为公益类网站,本网站刊载的所有内容,均已署名来源和作者,仅供访问者个人学习、研究或欣赏之用,如有侵权请权利人予以告知,本站将立即做删除处理(QQ:51999076)。