您的位置:首页 >  新闻中心 > 行业动态
  行业动态
 

ITI呼吁政府灵活监管AI,避免激进立法

来源:原创    时间:2017-11-11    浏览:0 次

信息技术产业委员会(ITI)是一个以华盛顿特区为根据地的游说组织, 它的客户有谷歌、亚马逊和微软。ITI目前要求各国政府再三考虑下制定规范人工智能的法律。
 
但是,伴随着越来越多的安全、道德和社会正义问题,这真的是一个好主意吗?
 
周二,ITI发布了“人工智能(AI)政策原则”。在这个原则里,游说组织略述了“行业,政府和其他可以合作的具体领域,以及公私合作的具体机遇”。
 
在新的文件中,ITI承认技术部门对促进AI可靠的开发和使用有需求,同时呼吁各国政府支持、鼓励和资助AI的研究工作。但是,至于让政府了解一下ITI客户的源代码,或者制定法律来控制AI的安全发展和道德发展,就不那么令人兴奋了。
 
 
“我们还鼓励各国政府在采用新的法律、法规或税收之前, 评估下现在的政策工具,并且谨慎使用。因为这些政策可能会在无意中过分阻碍AI的可靠开发和使用”,ITI在新的AI原则列表中指出。
 
“这延伸到了保护源代码、专有算法和其他知识产权的基本性质。如果不这样做,可能会带来重大的网络风险。”
 
鉴于以上规定, ITI也在探寻如何“鼓励包括美国政府的所有政府制定政策、标准和法规来促进科技行业的创新和增长。”作为一些科技行业中究极兵器的代表,亚马逊、Facebook、谷歌、IBM和微软同时也誓将成为 “全球科技行业的喉舌”以及“即将到来的AI世界的催化剂”。
 
ITI的文件适时指出,AI开始变得非常重要,它的影响力迅速增长,不仅影响了我们生活(无论是照片分类应用,还是某种发明新药物的算法),还影响了全球经济(ITI估计,到2025年,AI将会为全球经济增加至少7万亿美元)。
 
但是,它也提及了最近监督和监管的呼声。正如Bloomberg记者Gerrit De Vynck和Ben Brody写道的:俄罗斯资助的账户利用社交网络传播不和,并试图影响2016年美国总统大选的结果。随着这个新闻的传播,大型科技公司及其软件受到了越来越多的关注。Facebook、推特和谷歌设计的算法也遭到批评,他们通过给人们提供人们已经同意的新闻类型来增加政治两极分化,制造所谓的“过滤气泡”。
 
关注并不止于此。开发者开始遭受批评,因为他们允许他们的AI系统拥有人类的偏见和成见(比如,Princeton最近的一项研究表明,一些AI系统会性别歧视和种族歧视)。此外,也不能确定AI将如何导致技术失业、自动化战争以及黑客入侵。而且,目前还没有达成共识,是否要给这些系统注入具体伦理或道德规范。
 
就像Elon Musk、Stephen Hawking以及其他思想家指出的,AI出现的严重问题具有令人恐惧的潜力。比如,最近google旗下的DeepMind在AI方面取得突破,这表明,一个飞速开始的事件,比如人工智能发展成为一种超级智能的形式,可能会相对迅速且没有预兆的带来灾难性的(可能存在的)威胁。
 
不出乎意料的,由于这些事情正在发生,一些忧心忡忡的观察者呼吁政府介入。
 
Musk已经警告过,政府需要“在为时已晚之前”实施条规,而且我们只有在事情失控之后才会采取行动。两年前,白宫实施了一个初步的AI战略,称AI需要符合道德标准,但是必须是扩大,而不是取代人类,并且每一个人都应该有机会参与到这个系统的开发。
 
但是关于正式法规,白宫表示为时尚早。正如美国前总统Obama去年对Wired所说的,“大多数人现在还没有花很多时间担心奇点,他们在担心着‘好吧,我的工作会被机器取代么?’”
 
“没有监管和国家监管之间的中间道路,是让行业自我监管,这是ITI的方法。但是这也离理想的方式很远:这是让狐狸守卫鸡舍。”
 
加州理工大学(California Polytechnic State University)伦理学+新兴科学集团的董事Patrick Lin表示,规范新技术一直是一种微妙的平衡行为。
 
“如果你太早设定了法规,那么你可能押注于错误的标准。重要的是,这对商业化来说是很糟糕的,”Lin告诉Gizmodo,“设定太多或者不必要的法规也存在同样的问题;它们会为创新制造障碍。但是在紧要关头,商业化并不是唯一的价值;公共安全是另一个重要的价值。
 
因此,如果对自己驾驶的汽车,犯罪判决和银行贷款决定等人工智能系统产生严重影响的技术几乎或根本没有规定,那么这将对社会造成不利影响。不论是本能的还是条件反射的违反规则,都是错误的。每一项技术都是不同的,需要根据自身的优点慎重考虑。”
 
Lin说到,这种谈话目前发生在自动驾驶汽车方面,一个阵营争辩道,监管标准将把制造商放在关于安全关键职能的同一页面上(这将保护该行业免受某些不利因素的影响),另一个阵营表示,我们还不够了解开始建立标准。
 
“没有监管和国家监管之间的中间道路,是让行业自我监管,这是ITI的办法。”Lin说到,“但是这也离理想的方式很远:这是让狐狸守卫鸡舍。如果公司的排名不高,就没有办法强制执行自我管理;甚至透明度可能会低于政府监管机构;还有许多其他的问题。”
 
目前,美国还没有一个专门负责监管或监控AI的联邦机构,可能还需要一段时间才能看到类似的情况(如果有的话)。与此同时,政府内部和外部的各种团体都将参与监控AI的发展。