黄治清:人工智能的伦理问题(一)

  • 时间:
  • 浏览:0
  • 来源:一分快三_一分快三平台哪个好_玩一分快三的网站

   人工智能(Artificial Intelligence,缩写为AI)亦称机器智能,位于机器上的模拟人类智能,有的是称AI指由人制发明的故事权来的机器所表现出来的智能。通常人工智能是指通过计算机应用线程来模拟人类智能。计算机科学中有的是将人工智能研究定义为对“智能代理”(intelligent agent)的研究:任何不必可不后能 感知其环境并采取行动以最大限度地实现其目标的设备。每每所一帮人面从词的宽度看,人工智能的定义不可不后能 分为两帕累托图,即“人工”和“智能”。“人工”即由人设计,为人创造、制造。关于哪此是“智能”,较有争议性。这涉及到其它诸如意识、自我、心灵,包括无意识的精神等问题报告 报告 。人唯一了解的智能是人两种的智能,这是普遍认同的观点。但会 或多或少人对或多或少人自身智能的理解都非常有限,对构成人的智能必要元素的了解也很有限,或多或少就不能自己定义哪此是“人工”制造的“智能”了。但会 人工智能的研究往往涉及对人智能两种的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。

   人工智能领域的研究主要包括机器人、大数据、语言识别、图像识别、自然语言避免、自动规划、游戏和专家系统等。人工智能在业界有血块应用,在或多或少人的日常生活中,无线支付、媒体、家电、手机等也刚开始英文血块使用AI系统。

   人工智能一方面给或多或少人带来便利,每每所一帮人面也带来风险、问题报告 报告 甚至危害,这一对人类尊严和权利的践踏、对隐私权的侵犯、对公民的监控等。怎么让AI的行为符合伦理道德规范,且让AI的使用合乎伦理道德,这是当前尤其迫切还要积极避免的问题报告 报告 。

   人工智能引发的伦理问题报告 报告 重大,将有一系列文章来做探讨和论述。本文先从人工智能原则和伦理法则谈起。一、人工智能原则/法则人工智能(AI)的迅猛发展与应用对社会对伦理思想带来了挑战、威胁、冲击和反思。2017年1月在美国加州举行了“阿西洛马会议”研讨有原则的人工智能,该会议聚集了学术界和业界的一群出色的人工智能研究人员以及或多或少经济学、法律、伦理学和哲学领域的思想领袖,会议形成了称为“阿洛西马人工智能原则”(Asilomar AI Principles)的人工智能原则,呼吁全世界在发展人工智能的日后 严格遵守原则,一并保障人类未来的利益和安全。已有1273名人工智能/机器人(AI / Robotics)研究人员和2541名每每所一帮人(包括霍金)回应。(对伦理学领域来说人工智能和机器人好多个概念的相近互通,但会 下文中不做有点区分)

   2015年1月生命的未来研究院(Future of life institute)便已通过公开信(Research Priorities for Robust and Beneficail Artificail Intelligence: an Open letter),倡导稳健型和有益性的人工智能,提出要保障人工智能对社会的有益性( delivering AI that is beneficial to society )。

   早在实体机器人总出 日后 ,科幻小说家阿西莫夫便已提出著名的“机器人三大法则”(Three Laws of Robotics)。机器人三大法则第一法则:机器人不得伤害人,或看过人受到伤害而袖手旁观(A robot may not injure a human being or, through inaction, allow a human being to come to harm);第二法则:在不违反第一定律的前提下,机器人还要绝对服从人类给与的任何命令(A robot must obey the orders given it by human beings except where such orders would conflict with the First Law);第三法则:在不违反第一定律和第二定律的前提下,机器人还要尽力保护它每每所一帮人(A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws)。日后 他又在三法则日后 加进了第零法则:机器人不得伤害整体人类,或坐视整体人类受到伤害(A robot may not harm humanity, or, by inaction, allow humanity to come to harm)。

   哪此原则、有益性保障和法则都表达了避免人工智能/机器人对人造成伤害,保障人工智能对社会有益性的或多或少先见卓识。三大法则中有点强调的是机器人不得伤害单个的人,我希望得伤害人类。由哪此出色的人工智能专家和或多或少经济学、法学、伦理学和哲学领域的思想领袖提出的阿洛西马人工智能原则有较好的实践指导性。二、亚马逊丑闻亚马逊的工人福利是好多个老要引起争议的问题报告 报告 。曾有记者卧底进入亚马逊工厂进行调查,力图呈现亚马逊仓库工人的真实现状。卧底记者詹姆斯(James Bloodworth)他在文章中透露,亚马逊工人会受到严格的监管。有的工人肯能担心上厕所花费越多时间而被处分,或多或少确定在玻璃瓶盖 盖 里避免每每所一帮人的生理需求——尿在玻璃瓶盖 盖 里。

   由亚马逊员工和组织社区成员组成的近 60 0 名请愿签名者提交的亚马逊仓库报告。报告显示,74% 的员工肯能害怕完不成既定目标被警告,从而避免使用厕所;而在原先的状态下,亚马逊仍然每隔好多个月就增加一次员工的目标值(绩效);在亚马逊工作以来,有 55% 的员工患有抑郁症;57% 的人在成为亚马逊员工后变得“更加焦虑”,81% 的亚马逊员工表示不必再申请亚马逊的工作。

   为哪此员工背负着那末 大的压力?哪此仓库工人连稍稍“摸鱼”(time off task)有的是行,一定要牺牲上厕所时间来完成工作吗?

   美国科技媒体The Verge 近日获得的一份文件或许解释了缘由。“亚马逊的AI系统会跟踪每好多个员工的生产率。但会 针对质量或生产率会自动向员工发出警告或终止,而这一 切甚至不必主管的输入。”这一 AI系统甚至不可不后能 追踪员工的“摸鱼”时间(time off task),亚马逊将其缩写为 TOT。肯能员工在扫描寄寄邮包 的过程中休息“越多”,系统会自动生成警告,警告到达一定次数,员工肯能会被AI直接解雇。一位叫作彼得伯勒(Peterborough)的亚马逊员工就曾对媒体表示“休息时间太紧了,当你走路去拿饮料的日后 ,你连上厕所的时间都那末 ,更越多坐下了。肯能你迟到 2 分钟,你就会受到滥用休息(break abuse)的警告提醒。肯能你迟到了 5 分钟,你甚至会被解雇。”

   批评者对这一 监管机制大为不满。或多或少人认为亚马逊应该将员工视为人类,而有的是好多个不可不后能 不间断工作 10 个小时的工作机器人。“或多或少人从工人那里不断听到的一件事是,或多或少人实际上被当作机器人对待,肯能或多或少人受到哪此自动化系统的监视和监督。它们被机器人所监控。”

   针对外界的批评和员工的罢工活动,亚马逊的回应依然十分官方:亚马逊第一天刚开始英文就为员工提供了具有竞争性的薪酬和福利。

   原先,仓库员工被压迫的原因着也就显出:严重不足道德性的CEO甚不道德的使用了很不符合道德规范的AI系统监控员工。

   在这里机器不仅不可不后能 取代人类劳动,甚至机器不可不后能 每每所一帮人决定开除人类,这一 科幻小说里才有的场面着实震惊了美国企业界。人被当作机器对待,这也是令工或多或少人尤其愤怒之处。对哪此不可不后能 采用阿西洛马AI原则较删剪地分析指出亚马逊公司在这里位于的社会伦理和法律的问题报告 报告 。三、从阿西洛马AI原则看亚马逊丑闻l 阿西洛马第11条AI原则

   Human Values: AI systems should be designed and operated so as to be compatible with ideals of human dignity, rights, freedoms, and cultural diversity.

      人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权利、自由和文化多样性的理想相一致。

   而亚马逊CEO贝佐斯竟然让机器去管理人,让机器警告和开除人。让一只狗有权去管理人,去开除人,这是将人置于狗之下,是对人类尊严侮辱与侵犯。让机器有权去管理人,去开除人,这是将人置于机器之下,是对人类尊严侮辱与侵犯,是对人格的侮辱。对人格侮辱,对人类尊严侮辱,这怎么不令人愤慨和谴责呢?

   l 阿西洛马第10条AI原则

   Value Alignment: Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation.

   价值归属:宽度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。

   亚马逊所设计使用AI,对让机器人去管理人,去开除人,去监督监控人。这是将人当作机器来对待,违背了人类的价值观。这也是让员工们感到尤其愤怒之处。

   l 阿西洛马第9条AI原则

   Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications.  

     责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和肯能去塑造哪此道德影响。

   亚马逊AI丑闻中,不我希望亚马逊CEO贝佐斯有责任,AI的设计者有的是一定的责任。作者注意到亚马逊仅有一位在兼职的大学教授回应了阿洛西马AI原则,若该亚马逊AI设计团队认可并回应了阿洛西马AI原则,那就不该有原先违背人类价值观、冒犯侮辱人类尊严、侮辱人格的AI出来。

   l 阿西洛马第2条AI原则

   Research Funding: Investments in AI should be accompanied by funding for research on ensuring its beneficial use, including thorny questions in computer science, economics, law, ethics, and social studies, such as:  

   研究经费:投资人工智能时,应资助哪此确保它的有益使用的研究,包括计算机科学、经济学、法学、伦理学以及社会研究中的棘手问题报告 报告 ,比如:

How can we update our legal systems to be more fair and efficient,(点击此处阅读下一页)

本文责编:wuyukun 发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 哲学 > 伦理学 本文链接:http://www.aisixiang.com/data/117541.html 文章来源:作者授权爱思想发布,转载请注明出处(http://www.aisixiang.com)。