www.mg4355.com_mg娱乐游戏4355|平台官网

www.mg4355.com谷歌停止作恶,谷歌帝国

2020-01-12 18:55

人升级成机器 谁来监管“升级”

一直以来这两个问题也是学术界讨论的重点。在谷歌与军方合作的项目公布后,今年5月15日,国际机器人武器控制委员会(ICRAC)向谷歌母公司Alphabet发出了一封公开信,再次要求谷歌停止其与国防部在Maven项目上的合作协议,承诺不去开发军事科技,并保证不将其搜集的个人数据用于军事行动。

除了内部员工强烈反对外,外部其他科技大公司从业者也公开反对,也有学者机构对外呼吁发声。

当地时间 4 月 15 日,法国巴黎圣母院发生火灾,整座建筑损毁严重。着火位置位于圣母院顶部塔楼,大火迅速将圣母院塔楼的尖顶吞噬,很快,尖顶如被拦腰折断一般倒下。事故发生后,西方媒体很快在 YouTube 上直播起火的视频。

不知道大家是否还记得2016年谷歌 X 实验室设计负责人 Nick Foster 制作一个名为《The Selfish Ledger》的九分钟视频,视频内容大体是谷歌考虑使用“全面数据收集”和社会工程来改变整个人群的行为。换言之,它设想了整个数据收集的未来,其中像Google这样的公司可以巧妙地促使用户与改善自身生活的目标保持一致,例如通过环境可持续性或改善健康,并且还与Google的世界观保持一致。最终,公司可以定制打印个性化的设备来收集更多不同类型的数据,为每个用户获得更详细的图片。最终的结果是:公司引导整个群体的行为来帮助解决诸如贫困和疾病这样的全球性挑战。2016年这个设想还只是停留在讨论和设想阶段,不过现在随着人工智能技术裂变式发展,行为产生的数据量几何级数增加,谷歌视频的设想正在快速变为现实。

4。由人类担责。

关于如何界定技术联合军事的争议一直都存在,新技术并非总能带来便利,已经有研究人员发出警告,人工智能技术可能会以不易察觉的方式产生重大偏见。

第三例:自动驾驶面临车祸时的两难抉择

目前来看,这些问题还没有一个准确答案。但是随着技术创新的完美风暴—图形卡的使用、定制硬件的创建、云计算的兴起和计算能力的增长—已经使AI成为世界上最强大的力量之一。基于互联网的开放源码工具的广泛使用,数据生成的爆炸性增长,以及租用云空间或外包计算资源的能力意味着相对成本已经落到实处,使得人工智能和机器学习走向普通用户。

实际上,除了谷歌外,IBM、微软、亚马逊等公司都盯着美国军方的合作。在美国军方合作的项目中,这些公司都曾是相互竞标的对手。

如果舆论压力没有这么大,如果合作的事情不会被曝光,仅靠企业自身的道德感约束发展和利益,结局可想而知。对于和平来说,不要小看每个人参与的力量,需谨记:覆巢之下焉有完卵。

即便是对于人类来说,这样的伦理决定也异常艰难。通常在发生车祸前的一瞬间,人类一般只会通过直觉做出选择。随着自动驾驶技术的发展,在不久的将来肯定会出现类似的场景,这样的两难选择,AI 会怎么做?

原标题:谷歌帝国:人类“被编程”的世界会是怎样?

但在AI学术界,对于这样的合同有不同的声音和担忧。今年5月份,一个人权和技术团体联盟齐聚一堂,发布了一份名为“多伦多宣言”的文件,要求各国政府和科技公司确保AI尊重平等和非歧视的基本原则。

Google 终于放弃了与国防部的合作计划,并表示将对外公布一份关于 AI 的伦理规范,可以说是面向舆论压力做出了妥协。

去年,YouTube 发布了这一文本功能,文本框内容均是从包括维基百科在内的可信网站上摘取的,为的是用确凿的事实来抵消错误性视频。YouTube 表示,每周会在网站的视频下方显示“数千万”个文本面板。

www.mg4355.com 1

今年4月份,还曾有逾50名顶尖的人工智能研究员宣布,向韩国科学技术院发起抵制。此前,这家韩国一流大学和一家军工企业合作开设了人工智能实验室。发起抵制的研究员称,这是一所“AI武器实验室”。

谷歌原本有机会在项目合作时就避免事态严重化。去年9月份,谷歌内部在讨论如何向公众解释这个事情时,谷歌云首席科学家、副总裁李飞飞曾在邮件中强烈建议双方在合同中回避AI这个字眼。

三个例子,谈谈人工智能

责任编辑:

这时候,与以往一样,公共监督和不停的辩论,或许是确保人工智能公平部署,并产生对社会有益的方式之一。正如谷歌这次面对的情况一样,对于那些手握数据和技术的科技公司而言,它们必须要习惯于公众开始讨论技术使用的道德问题。

www.mg4355.com 2

而人工智能从一开始就出现就被大家过度猜疑。在 1958 年,第一个神经网络系统 Perceptron 出现后,有报纸就认为机器在不久就会有自己的意识。而“人工智能之父”John McCarthy 曾在上世纪 60 年代提出,人工智能系统会在 10 年内实现。然而,十年之后,人工智能领域进入了所谓的“冰封期”。

我们需要批判性地思考每一个技术进步以及它将如何影响我们,我们要时刻警惕谷歌这种巨无霸企业在用技术造福人类同时,可能给人类带来的灾难。

信中写到:和许多其他数字技术公司一样,谷歌收集了大量关于用户行为、活动和兴趣的数据。谷歌不能仅利用这些数据改进自己的技术和扩大业务,还应该造福社会。公司的座右铭是“不作恶”,这是众所周知的责任。

然而,谷歌打算建立一个类似谷歌地球的监测系统,让五角大楼的分析师能点击建筑,查看与之相关的一切,并为整个城市建立车辆、人员、土地特性和大量人群的图像。

巴黎圣母院失火,YouTube 算法浇油

人工智能技术在快速裂变发展,没有一个政府或公司能够控制它。一方面,这是好的,因为,从安全伦理的角度来看,没有一个实体应该能够控制它,是好事。但另一方面,如果对AI的使用没有真正的或可实现的监督,就没有理由相信AI主导的未来是美好的,安全的。

4。目标违反被广泛接受的国际法与人权原则的技术。

据悉,Maven项目的主要是帮助美国国防部有效地处理来自全球各地的海量的视频资料。美国国防部每天收集到数量庞大的无人机飞行画面,但人类图像分析师远远跟不上视频数量的增长。

直到最近,人工智能才又再度变得火热。一方面,计算机性能的飞速提升为人工智能算法提供了基础的支撑。另一方面,就是大数据的出现。大数据提供的海量数据让机器学习的效率成倍提升。DeepMind 团队 AlphaGo 在围棋方面的成功就得益于其前期大量的训练。

从某种意义上说,这是视频是美好的,谁不希望未来没有流行病和贫穷?但是我们也必须面对一个不安的事实。像其他公司引领人工智能(AI)的发展一样,谷歌想要更多的用户。谷歌也会对那些行为是谁越来越好奇,也会尝试在不被用户知道的情况下改进如何与这些用户行为进行互动,无影无形的侵入用户的日常生活。我们已经不知不觉的“被编程”接受谷歌主动提出的建议,例如当谷歌地图为我们日常旅游规划行车路线,为我们吃饭选择合适的餐厅。无人驾驶汽车自动驾驶带我们去想去的地方,我们已经认为这是在正常不过的。但当一家公司强大的足以控制地球半数人的行为,谁来监管,但谷歌似乎并不在乎他们的产品和实践的潜在黑暗面。

在份文件的重点是各国政府和科技公司有义务防止机器学习系统歧视,以及能确保在某些情况下不会出现违反现有人权法的事情发生。

谷歌促进了一种开放的文化,鼓励员工挑战和讨论产品决策。但员工们真正向高层呼吁反对的时候,谷歌选择冷处理。

随着人工智能技术的第三次爆发,人工智能威胁论的观点又再次喧嚣。吴恩达认为机器智能赶超人类在短时间内并不现实,而 MIT 物理学家 Tegmark 则认为机器不需要本身就是邪恶的才会对人类构成威胁,40 年的时间足够达到这种程度。

虽然不少声音一直在宣扬中国威胁论,国内媒体也在跟风说中国的人工智能发展已经能和美国比肩,但是事实是中国企业乃至全球其他国家企业还不具备在人工智能和基础科学领域和谷歌抗衡,我们相信AI的未来发展将会以一种有序和完全积极的方式进行,但我们也要预防AI霸权的出现,或许在未来人工智能社会里,会出现一个多边机构,共同制定AI的监管。

在内部员工给予辞职压力,以及外部媒体、学术界的监督下,谷歌最终做出了妥协。公布AI使用指导原则后,谷歌员工表示了欢迎。

谷歌周五在内部会议上作出决定:不再与美国国防部续约Project Maven项目,双方的合作2019年到期后结束。

谷歌曾与美国国防部合作开发军用无人机项目 Maven,此举遭致谷歌员工、高管、技术专家在内的强烈抵制,认为该项目有可能被五角大楼用来杀人,强烈抗议并呼吁谷歌退出该项目。

全球前十的AI科学家,谷歌独占半数

不可触碰的“香饽饽”:AI武器化

谷歌内部也因为该项目爆发了一次小规模辞职潮,有十几名员工因为这一项目正式向谷歌请辞。

YouTube 算法标记巴黎圣母院失火是 911 阴谋,亚马逊人脸识别标记美国国会议员为罪犯,谷歌 AI 武器项目遭致广泛批评。AI 发展了,后果呢?

谷歌AI造福OR毁灭人类仅一线之隔

“我们必须把注意力集中在这些技术将如何影响个人和人权。在机器学习系统的世界里,谁来承担损害人权的责任?”这份宣言的序言部分写道。

今年4月初,大约有3000多名谷歌员工签名,向谷歌现任CEO桑达尔皮查伊提交了一封信,要求皮查伊立即取消参与Maven项目,并起草公开一份清晰的政策表明:谷歌和它的合作方不会开发用于战争的技术。

Facebook 人工智能专家 Yann Lecun 表示这还是一个非常遥远的事情。他认为,能够威胁到人类存在的机器智能基本还存在于科幻小说中。而且,机器的行为是受人类所设计的算法控制的。无论未来如何,这都是我们人类自己创造出来的。

www.mg4355.com 3

www.mg4355.com,DeepMind联合创始人穆斯塔法(Mustafa Suleyman)尽管自己没有发表观点,但在推特上转发了人权观察组织(Human Rights Watch)的话:各国政府应该关注到科技行业的最新动态,开始就禁止全自动武器展开协商,制定新的国际法规。

我不知道如果媒体开始谷歌正在秘密建造AI武器或AI技术,并为国防工业服务会发生什么。李飞飞说,因此她希望在对外公布合同时,能将项目描绘为是谷歌云平台的重大胜利。

作者 | 小智

本文来自机器成精(微信公众号:ai_jiqiman)返回搜狐,查看更多

我们相信AI应当

谷歌云CEO Diane Greene此前因为舆论压力,在内部开会告诉谷歌员工,合同价值仅900万美元。财大气粗的谷歌与美国军方只签订900万美元的项目合作,想想感觉有点儿欺负大众智商。

除李飞飞外,DeepMind 高管、Jeff Dean 等业界知名大牛同样立场鲜明地投了反对票。最终,经过漫长的拉锯战后,谷歌发布了使用 AI 的七条原则与四条底线,其中包括不会将 AI 技术应用于开发武器,不会违反人权准则将 AI 用于监视和收集信息,避免 AI 造成或加剧社会不公等。

李飞飞的离职,让我们不禁的开始审视如今的谷歌。不知不觉间,谷歌已然建立起了一座庞大的帝国,汇集全球顶级科学家,掌握用户的一切信息,数十亿美金的业务流量。美国人老喜欢用科技公司野心勃勃征服世界的故事来作为美国科幻大片的剧本,一个足以改变未来世界的谷歌。不知道会不会按美国人的逻辑思维来定义世界。

2。武器或其他用于直接伤害人类的产品;

谷歌在Maven项目中的相关参与计划将不可挽回地毁灭谷歌的品牌和它吸纳人才的能力。在越来越多的对于人工智能可能会偏激化和武器化的恐惧中,谷歌在获取公众信任方面已经显得力不从心了。这一协议将会使谷歌的声誉面临威胁,并将会使谷歌站在其核心价值观的对立面。谷歌的员工在信中写到。

2018 年 7 月,北加州美国公民自由联盟(American Civil Liberties Union of Northern California)宣布,它对亚马逊面部识别系统 Rekognition 进行测试,但发现该系统不精准。当该联盟用国会议员照片做面部识别测试时,Rekognition 将其中 28 名国会议员识别成曾经被捕的罪犯。联盟从“公开来源”下载 2.5 万张警方拍摄的罪犯脸部照片,然后将 535 位国会议员的官方照片交给 Rekognition 处理,问它在 2.5 万张照片中是否有照片与国会议员匹配,Rekognition 给出了“有 28 张匹配”的结果。

www.mg4355.com 4

1。制造整体伤害之处。如一项技术可能造成伤害,我们只会在其好处大大超过伤害的情况下进行,并提供安全措施;

舆论虽然是一边倒的情形,但是还是有位为谷歌站台的人出现。华盛顿大学教授、《终极算法》作者Pedro Domingos就此公开提出了质疑。

近期高居头版头条的梅赛德斯·奔驰公司此前曾表示,如果他们只能救一个人,他们会救司机而不是行人。公众的愤怒让他们收回了这一声明。

现在全球每天都产生如此多的数据,通过对大量数据的获取、分析、挖掘,才有可能对人工智能的发展产生影响。这意味着只有那些拥有消费和处理这些海量数据能力的公司将来才有可能成长为巨无霸,谷歌目前已经具备了成长为巨无霸的必要条件。

之所以说千呼万唤,原因是谷歌发布这套指导原则的过程一波三折。事件的起因是谷歌与美国军方合作的Maven项目。谷歌在该项目中向美国国防部提供用于机器学习应用的TensorFlow API接口,以帮助军事分析人员检测图像中的物体。

李飞飞一直坚持相信的是以人为中心的人工智能,可以用积极和慈善的方式让人类受益。她还表示,任何将人工智能武器化的项目研究,都将违背她的原则。

不过,谷歌也表示,将会继续与政府和军方展开 AI 合作,例如网络安全、培训以及征兵等领域。AI 武器的担忧暂时松口气了,但对谷歌与军方 AI 合作的担忧却并没有消散。而更进一步的担忧,在电影里早就体现过了:

就像今年美国科幻电影《升级》里描述的那样,人类社会已经发展到万物相连,处处都充斥着电子元器件,每个人身体随处可见电子元器件,来消灭疾病,武器已经可以通过芯片植入手臂,当有人举起手做出一个手枪,那已经不是玩笑,那是真实的会射出一排子弹,一个名为“智脑”人工智能体,已经无所不能,无所不知。,他可以操作无人汽车,还可以通过植入在人体内的芯片,电子器件,操控人类,做出非人类本意的行为动作。

当一家有全球影响力的公司,乐于讨论人工智能技术使用的道德问题时,我们应该庆幸,因为至少看起来,事情在朝对的方向发展。

4月中旬,来自 Google、Amazon、Microsoft 和 IBM 等科技公司的员工发布了一封联合请愿信,声明称科技公司不应该参与到与战争有关的商业中去,因此 Google 应该中止与美国国防部的合作。

但在这次全球性的新闻下,YouTube 的算法彻底翻车,遭致了更多外界批评。当为了辟谣而发明的算法出错时,是否是另一种事实上的造谣呢?

从2016年到2018年人工智能技术爆炸性发展的这两年,人工智能技术已经开始失控,虽然目前还没有影响到全球金融体系和国际军事格局,但是据媒体爆料谷歌正在跟美国军方合作秘密测试基于AI人工智能的军事技术,帮助军方无人机高精度识别物体,进行有效准确打击”。

www.mg4355.com 5

在不作恶和做正确的事之间,谷歌遇到了道德困境。

人工智能,想说爱你不容易

谷歌的人工智能研发团队堪称宇宙豪华级别的,杰弗里·辛顿(Geoffrey Hinton)“人工智能的三位奠基人之一”被称为“深度学习之父”、“神经网络之父”,德米斯·哈萨比斯(Demis Hassabis)震惊全球的“AlphaGo”就出自此人之手,塞巴斯蒂安·史朗,谷歌无人车之父,算上刚刚离职的李飞飞,全球公认人工智能领域的顶级科学家半数被谷歌收入麾下,谷歌还在不遗余力地以收购初创企业的形式网罗年轻科学家和支持学术研究的形式网罗高校科学家。

谷歌内部曾有邮件显示,谷歌云首席科学家、副总裁李飞飞在讨论这一项目是曾强烈建议双方在合同中回避“AI”(人工智能)这个字眼。

据Gizmodo获得的内部电子邮件显示,最初的合同价值至少1500万美元,预计该项目的预算将增长到高达2.5亿美元。这个内部邮件透露的内容才是谷歌云高层真正的胃口。

YouTube 去年推出了这个文本功能,为的是打击阴谋论的传播,这其中就包括那些质疑 911 恐怖袭击的言论。据了解,出现这个问题的原因是 YouTube 的算法错误地把巴黎圣母院火灾的烟雾标记为 2011 年的镜头,触发了 911 恐袭标记的面板。

Google大脑研究员Dumitru Erhan就在自己的推特上表示:“看见这个出来了好开心”。

但是双方具体合作的内容并没有对外披露,谷歌内部员工曾施压,要求谷歌公开具体与军方的合作内容。一位谷歌辞职员工曾表示,高管们对有争议的商业决策的态度已经变得不那么透明了,他们似乎不太愿意听取员工的反对意见。

www.mg4355.com 6

“我不知道如果媒体开始讨论谷歌正在秘密建造AI武器或AI技术,并为国防工业服务会发生什么。”李飞飞说。

mg娱乐游戏4355,自2000年以来,不作恶原则一直是谷歌公司的核心行为准则之一;此前在2015年的时候,谷歌重新组建成立新的母公司时,这个口号被修改为做正确的事,但仍然保留了不作恶原则的重要内容,并依旧将之作为其核心行为准则和价值观之一。

www.mg4355.com 7

但双方的合作立刻引起了谷歌内部员工、媒体、学术界,甚至部分工业界的指责。他们认为谷歌与美国军方的合作,有可能让AI技术成为军方的帮凶,这与谷歌一直倡导的“不作恶”公司文化相悖。

五月中旬左右,国际机器人武器控制委员会也向佩奇、Pichai、Diane Greene和李飞飞发出了一封公开信,呼吁谷歌退出军方项目,承诺不开发军事技术,不收集个人数据用于军事行动,不参与或支持发展、制造、贸易或使用自主武器;并支持禁止自主武器。截止到目前,已经有 1144 名专家学者在这封公开信上签名。

历史上,每次的技术革命都会带来一定程度的恐慌。从 18 世纪的工业革命到后来电的出现引起的一系列社会变革,再到电器的不断涌现,人们总会有失业、人身安全等方面的担心。

1。对社会有益。

谷歌一直致力于组织和提高信息的有效性。在互联网上提供搜索相关的网页,收集了大量关于用户行为、活动和兴趣的数据。人们确实享受到了谷歌科技带来的便利,但人们也会担心谷歌不仅仅是停留在利用这些数据扩大业务造福社会,手握大量全球敏感私人数据的科技公司与国家军队的危险联盟这种事情时刻都有发生的可能。

www.mg4355.com 8

我们不会将AI应用于:

因此,国防部希望能利用机器学习来识别无人机镜头中的车辆和其他物体,从而减轻分析人员的负担。国防部在自身资源不足的情况下,转向了学界与业界的人工智能专家合作。

在此前的一项调查中发现,人们普遍认为自动驾驶汽车应该保护更多的人,即使这意味着牺牲车上的乘客。但他们同样表示,他们不会购买一辆按照这种程序设计的自动驾驶汽车。这告诉我们什么?

对于崇尚开源和开放的硅谷文化来说,谷歌的这套原则还可能面临另一个问题:即便谷歌说不让自己的技术用于武器开发,但一旦变成开源项目,这些技术和代码就有可能用于作恶,就像其他的工具与技术一样。

他在Twitter上对Google员工说道:如果前几代技术人员都像你们这样,拒绝国防相关的工作,我们现在就不会有互联网,也不会有Google。

小彩蛋

谷歌公司内部也因此掀起了离职潮,并约有4000名员工写了请愿信,要求谷歌公司高层停止与美国军方的合作。同时,外部的舆论也让谷歌倍感压力。

合作虽然终止了,但是给谷歌声誉带来的影响永远也不会消除。

谷歌去年发布的 Cloud AutoML 产出了一系列机器学习代码,其效率甚至比研究人员自身还要高。该系统设计的目的就是为了让 AI 自己设计 AI。现在的 AI 除了会自己写代码,还会自己修复 Bug。也许值得我们担忧的,该是程序员会不会被 AI 取代了。

在这种情况下,谷歌做出了一系列缓解内外部压力的举措。首先,谷歌召开了员工大会,谷歌云CEO黛安·格林向员工解释了这份与美国军方的合同仅价值900万美元,且这项目不是为了攻击目的。其次,谷歌宣布将在2019年,Maven项目合同到期后,停止与美国军方合作,不再寻求新合同。第三,谷歌终于在拖了近一年的时间后,推出了AI的指导原则,兑现了项目签订时的承诺。

武器化人工智能可能是AI领域里最敏感的话题,没有之一。对于媒体而言这简直就是红肉,他们会找到一切方式毁掉谷歌。李飞飞在邮件中建议道。

该项目在谷歌内部的反抗史将近一年,包括前谷歌云首席科学家李飞飞在内的多位技术专家、高管发声抵制,李飞飞称:“我相信以人为中心的 AI 能以积极和慈善的方式让人类受益,任何 AI 武器项目都违背我的原则。”

3。提前测试以保证安全。

但是最终对外的结果大家都看到了,并且带来了一系列的连锁反应。

YouTube 发言人首先对巴黎圣母院失火表达了悲痛之情,随后称他们的算法有时候会错误的调用,他们在相关视频下关闭了该功能。YouTube 此前一直因极端和误导视频而饱受批评,尤以突发新闻话题的视频为甚。尽管其已成为全球最大的视频网站,但它一直难以使用软件和人工审核来监督每天上传的数百万小时的视频。

与美国军方合作AI项目,导致谷歌面对的内部和外部压力,其实是近年来各界对于AI武器化讨论的缩影。

有人附议说:其他国家正在高科技领域全速前进,而且没有道德约束。

然而在其中几段视频下面出现了一个奇怪的文本框:一段来自《大英百科全书》的关于 911 恐怖袭击的片段。

6。坚持科学高标准。

因巴黎圣母院失火,育碧旗下《刺客信条大革命》限时免费。该游戏发布于 2014 年 11 月,以精确刻画法国首都巴黎著称。在巴黎圣母院失火之后,这款精确还原巴黎圣母院的游戏出人意料在 Steam 等游戏商店进入到销售榜前列。现在,开发商育碧通过其 Twitter 账号宣布游戏限时免费,宣布会捐款帮助巴黎圣母院的修缮工作。玩家可以通过育碧官网或客户端领取游戏,领取时间是从 4 月 17 日到 4 月 25 日。

如何确保AI技术不会用来作恶

Rekognition 是亚马逊最具争议的产品之一。这是一款在亚马逊服务器上运行的图像识别 AI 软件,用户需要为使用该软件处理的每张图片向亚马逊付费。它可以识别图像或视频上的文字、对象、场景、活动和人员。

员工的欢迎是一方面,但在实际中谷歌率先做出的这套原则是否真的使用,又是另一个问题了。《纽约时报》的文章称,由于谷歌此前一再强调自己为国防部所做的工作并非出于“进攻目的”,这些指导原则能否将该公司排除在类似Maven的合同之外,尚不清楚。

一位参与谷歌自动驾驶汽车项目的工程师表示,这样的调查结果并不重要,因为在这些情况下,真正的答案几乎总是“猛踩刹车”。但他同时表示,随着自动驾驶技术的发展,路况越来越复杂,这样两难的选择题始终会出现在人类面前,这样的场景下,AI 做出的选择总是基于人类的设计,但如果程序出错,面临的可能就不是牺牲一方拯救另一方的悲剧,而是两败俱伤的人间惨剧。

在工业界,与军方的合作一直是各家科技企业想要争夺的“香饽饽”:通常来说与军方合作意味着能获得的长期且价值高昂的合同。《The Verge》曾指出,虽然谷歌这次与美国军方的合同仅值900万美元,但这对谷歌未来获得合同开了好头。李飞飞也曾建议谷歌内部将这次的合作描绘成是谷歌云平台的重大胜利。

美国队长 2 里的洞察计划

“无论付出什么代价,都必须要避免提及或者使用到AI这两个字。武器化人工智能可能是AI领域里最敏感的话题,没有之一。对于媒体而言这简直就是红肉(red meat),他们会找到一切方式毁掉谷歌。”这位来自斯坦福大学人工智能实验室的学者在邮件中说。

图片 | 刺客信条大革命

谷歌现任AI负责人杰夫·迪恩在自己的推特账号上,除了分享了谷歌发表的这份原则之外,还提到为了真正践行这些原则,他们还提出了一套技术实践指南,指导科学家和工程师们在构建AI产品的时候应该注意什么。

第二例:谷歌的 AI 武器争端

最后,正如谷歌在最新指导原则中表明的那样,制定足够广泛的规则,以涵盖各种各样的场景,又能足够灵活以至于不排除有益的工作,其实是很困难的。

第一例:亚马逊人工智能识别将 28 名美国会议员判定为罪犯

当地时间6月7日,在千呼万唤中,谷歌终于通过官方博客发布了关于使用人工智能(AI)的七项指导原则。其中包括不会将AI技术应用于开发武器,不会违反人权准则将AI用于监视和收集信息,避免AI造成或加剧社会不公等。

现阶段值得担忧的不是 AI 威胁论,反而是其对社会职业的影响。以波音公司为例,相比于上世纪 90 年代,该公司的雇员数量减少了三分之一,生产效率却提高了 20%。从 2000 年到 2015 年,仅美国就有大约 500 万个职位消失,这其中大部分已经被机器所取代。人工智能所带来的影响将堪比蒸汽机,而机器智能所带的影响还不仅仅如此。

5。保证隐私。

没有去过巴黎圣母院的同学,现在可以入手了。

AI应用目标:

www.mg4355.com 9

2。避免制造或加剧偏见。

而在此事件发生前,该产品就遭到包括亚马逊用户、民间组织、股东甚至亚马逊员工在内超过 15 万人的联名抗议。虽然人脸识别只是一种辅助手段,误报不可避免,但这仍旧让普通民众对于其的安全性、隐私性问题产生了巨大的怀疑。甚至有阴谋论称:万一亚马逊这个人脸识别没有出错呢?

3。收集使用信息,以实现违反国际规范的监控的技术;

www.mg4355.com 10

7。从主要用途、技术独特性、规模等方面来权衡。

如果一辆自动驾驶汽车必须在撞上障碍物、导致三名女性乘客死亡或在街上碾过一名儿童之间做出选择,它应该选哪个?

“像谷歌这样跨国公司的责任必须与他们的用户国际化相匹配。根据谷歌所考虑的国防部合同,以及微软和亚马逊已经实施的类似合同,这样的做法标志着拥有大量全球敏感私人数据的科技公司与一个国家军队的危险联盟。它们还表明,谷歌未能与全球公民社会和外交机构进行接触,这些机构已经强调这些技术的道德风险。”信中称。

作为斯坦福大学人工智能实验室的一名教授,又在谷歌公司中担任要职,李飞飞一直坚持相信的是以人为中心的人工智能,可以用积极和慈善的方式让人类受益。她还表示,任何将人工智能武器化的项目研究,都将违背她的原则。

附谷歌公布的AI指导原则:

值得一提的是,在谷歌提出的AI原则中,谷歌也表示将会继续与政府和军方展开AI合作,例如网络安全、培训以及征兵等领域。