人工智能的伦理思考范文

时间:2023-07-07 09:21:40

引言:寻求写作上的突破?我们特意为您精选了12篇人工智能的伦理思考范文,希望这些范文能够成为您写作时的参考,帮助您的文章更加丰富和深入。

人工智能的伦理思考

篇1

中图分类号:TP18

文献标识码:A

一、人工智能技术的发展及其影响

人工智能技术研究开始于20世纪50年代中期,距今仅有60年的发展历程,但是其迅猛的发展速度,广泛的研究领域以及对人类产生的深远影响等令人惊叹。调查显示,77.45%的人认为现实生活中人工智能技术的影响较大,并且86.27%的人认为人工智能技术的发展对人类的影响利大于弊;认为人工智能技术对人类生活影响很小且弊大于利的人权占很小一部分。人工智能技术的发展和应用直接关系到人类社会生活,并且发挥着重要的作用。人工智能技术的发展方向和领域等由人类掌控着,所以人类应该尽可能地把人工智能技术的弊处降到最低以便更好地为人类造福。2016年3月份,围棋人工智能AlphaGo与韩国棋手李世h对弈,最终比分4∶1,人类惨败。4月份,中国科学技术大学正式了一款名为“佳佳”的机器人,据了解,机器人“佳佳”初步具备了人机对话理解、面部微表情、口型及躯体动作匹配、大范围动态环境自主定位导航和云服务等功能。而在这次正式亮相之前,“佳佳”就担纲主持了2016“首届全球华人机器人春晚”和“谁是棋王”半Q赛。人工智能技术确实给人类带来了诸多的便利,给人类生产生活带来便利;但是,人工智能技术的快速发展超乎人类的预测,引起了人类的恐慌和担忧。百度CEO李彦宏称,人工智能是“披着羊皮的狼”。毋庸置疑,科学技术是一把双刃剑,当人类醉心于科学技术所带来的福利中时,更应当注意其带来的负面作用。人类发明和创造科学技术最终是为了造福人类,而非受到科技的异化。

随着科技的发展,人工智能技术越来越成熟,在此整体趋势之下,不同的人群对人工智能技术的不断成熟与应用有着不同的看法。调查结果显示,在关于机器人会不会拥有人类的思维甚至超过人类的问题方面,27.45%的人认为机器人会拥有人类的思维和超过人类;而56.86%的人认为机器人不会拥有人类的思维和超过人类,小部分人对此不是很清楚。由于受到人工智能技术迅猛发展的冲击,如机器人保姆、AlphaGo围棋等智能产品对人类发展带来的威胁,一部分人仍然对人工智能技术的发展担忧甚至认为终有一天机器人将代替人类、征服人类、控制人类。但是,大部分的人在机器人是否能够超过人类方面,保持乐观积极的态度,认为机器人永远不会拥有人类的思维并且超越人类,因为人类是技术的主导者,人类掌握着技术的发展方向,技术终究是为了人类服务。这一看法肯定了人类的无止境的创新,然而,在人类醉心于技术创新的同时,应意识到某些创新确实超出了人类的预料,如AlphaGo与李世h围棋人机大战就是人类在技术面前失败的惨痛教训。因此,面对科技对人类的异化,人类要时刻保持警惕,适时地总结“技术异化”的缘由和解决对策。

二、人工智能技术发展面临的问题及其原因

随着技术的革新,人工智能技术的应用越来越广泛,与人们的日常生活联系也愈加密切。从智能手机的普及到自动驾驶汽车的研制成功,再到生产、建设、医疗等领域人工智能技术的应用,都表明了人工智能技术正悄无声息地改变着我们生活方式。诚然,人工智能技术使我们的生活更加丰富多彩,给我们带来了极大便利,但与此同时,人工智能技术也给社会带来了一系列不可忽视的问题:人工智能技术在社会生产领域的应用对劳动市场造成冲击;人工智能系统在收集、统计用户数据过程中个人隐私及信息安全方面的隐患;人类对人工智能产品的依赖引发的身心健康问题;人工智能引起的责任认定问题等。斯蒂芬・霍金在接受BBC采访时表示,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就是人类的末日。”表示同样担忧的还有特斯拉的创始人马斯克,他曾直言,“借助人工智能,我们将召唤出恶魔。在所有的故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行。”不可否认,人工智能技术是把双刃剑,有利亦有弊,争议从来就没有停止过,而最不容忽视的莫过于人工智能技术引发的一系列伦理困境,关于人工智能的伦理问题成了重中之重。

调查发现,47.55%的人认为人工智能所引发的伦理问题是因为人性的思考,占比较大;而22.55%的人认为是由于人们价值观念的改变;29.9%的人认为是利益分化与失衡以及一些其他的原因导致的。由此可以看出导致人工智能伦理困境的原因是多方面的。主要总结为以下几个方面。

第一,从技术层面来看,人工智能技术在现阶段仍然有很大的局限性。人工智能是对人脑的模仿,但人脑和机器还是存在本质区别的,人脑胜于人工智能的地方,就是具有逻辑思维、概念的抽象、辩证思维和形象思维。人工智能虽能进行大量的模仿,但由于不具备形象思维和逻辑思维,仅能放大人的悟性活动中的演绎方法,不可能真正具有智能,这决定了机器不能进行学习、思维、创造。此外,智能机器人也不具备情感智能,它们根本无法去判断自己行为的对错,也无法自动停止自己的某项行为,所以如果人工智能技术一旦被不法分子利用,后果不堪设想。可见,由于人工智能自身技术上的局限性导致的伦理问题已经影响到其未来发展。

第二,从规制层面来看,伦理规制的缺失和监督管理制度的不完善是导致伦理问题产生的重要原因。科技的发展目标是为人类谋求幸福,但我们必须认识到,无论是在科技的应用还是发展过程中总是存在一些难以控制的因素,倘若没有相应的伦理原则和伦理规制加以约束,后果难以想象。在目前人工智能领域,缺乏一套成体系的关于人工智能技术产品的从设计、研究、验收到投入使用的监督管理方案,也没有一个国际公认的权威性的规范及引导人工智能技术的发展及运用的组织或机构。现有的监督体制远远滞后于人工智能技术的发展速度,无法匹配技术发展的需要。缺乏相关监管制度的约束,人工智能技术就不可避免会被滥用,从而危害社会。

第三,从社会层面来看,公众对人工智能技术的误解也是原因之一。人工智能作为一门发展迅猛的新兴学科,属于人类研究领域的前沿。公众对人工智能技术的了解十分有限,调查显示,对人工智能技术只是了解水平较低的人较多,占62.75%,以致部分人在对人工智能技术没有真实了解的情况下,在接触到人工智能技术的负面新闻后就夸大其词,人云亦云,最终导致群众的恐慌心理,从而使得更多不了解人工智能技术的人开始害怕甚至排斥人工智能技术。我们必须清楚,人工智能是人脑的产物,虽然机器在某些领域会战胜人,但它们不具备主观能动性和创造思维,也不具备面对未知环境的反应能力,综合能力上,人工智能是无法超越人脑智能的。在李世h对弈AlphaGo的旷世之战中,尽管人工智能赢了棋,但人类赢得了未来。

三、人工智能技术的发展转向

人工智能技术的发展已经深入到人类社会生活的方方面面,其最终发展目标是为人类服务。但是,科学技术是把双刃剑,它在造福人类的同时,不可避免地会给人类带来灾难,因此,人类应该趋利避害,使人工智能和科学技术最大化地为人类服务。这就要求人类必须从主客体两个角度出发,为人工智能技术的健康发展找出路。

1.技术层面

(1)加强各个国家人工智能的对话交流与合作。人工智能自20世纪50年代被提出以来,尤其是近六十年来发展迅速,取得了许多丰硕的成果。如Deep Blue在国际象棋中击败了Garry Kasparov; Watson 战胜了Jeopardy的常胜冠军;AlphaGo 打败了顶尖围棋棋手李世h。从表面上看,人工智能取得了很大的进步,但深究这些人工智能战胜人类的案例,我们发现这些成功都是有限的,这些机器人的智能范围狭窄。造成这一现象的很大一部分原因就在于国际间人工智能技术的对话交流与合作还不够积极,所以加强各个国家人工智能的对话和交流迫在眉睫,同时也势在必行。

(2)跨学科交流,摆脱单一学科的局限性。从事人工智能这项工作的人必须懂得计算机知识、心理学和哲学。历史的经验告诉我们,一项科学要想走得长远就必须有正确的意识形态领域的指导思想的介入。在人工智能这项技术中,有些科学家们可能只关注经济利益而没有引进相应的伦理评价体系,最终使得技术预测不到位,没有哲学的介入,等真正出现问题时就晚了。所以要加强科学家与哲学家的沟通交流,令科学家能更多地思考伦理问题,提高哲学素养,在人工智能技术中融入更多的哲学思想,保证人工智能技术能朝着正确、健康方向发展。

(3)人工智能技术的发展,要与生态文明观相结合。在人工智能技术发展中,要注入更多的生态思想,这关系人民福祉、关乎民族未来的长远大计。在人工智能发展中,若是产生资源过度消耗、环境破坏、生态污染等全球性的环境问题时,人类必须制止并进行调整。人工智能技术要想发展得更好,前景更加明亮,前途更为平坦,就必须保持与生态文明观一致,与人类自身利益一致,为人类造福。

2.人类自身层面

(1)增强科学家道德责任感。科学技术本身并没有善恶性,而研发的科学家或是使用者有善恶性。人工智能将向何处发展,往往与研发人工智能的科学家息息相关。科学家应打破“个体化原理”,要融入社会中去,关注社会道德伦理问题,承担起道德责任,为自己、他人、社会负责,多去思考自己研发的技术可能带来的后果,并尽可能去避免,多多进行思考,严格履行科学家的道德责任。

(2)提高公众文化素养。调查发现,对人工智能技术了解水平较低的人较多,占62.75%;而非常了解的人较少,占4.41%;另外,对人工智能技术了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人对人工智能技术都能有所了解,但都不是很深入,而且仍有部分人对人工智能技术丝毫不了解,所以,人工智能技术对于个体的影响是比较微小的,其发展还没有深入到个人的日常生活中。特别是在一些关于人工智能的科幻电影的渲染,可能使那些对于人工智能技术并不了解或是一知半解的人产生偏见。在日常生活中,人工智能给人类带来了极大的便利。通过提高公众的文化素养,使公众正确认识人工智能技术,将是缓解甚至是解决人工智能技术某些伦理问题的重要途径之一。

(3)加大监督力度。人类需要通过建立一个完善的监督系统引导人工智能技术的发展。对于每项新的人工智能技术产品从产生到使用的各个环节,都要做好监督工作,以此来减少人工智能技术的负面影响,缓解甚至减少人工智能技术的伦理问题。

3.道德法律用

(1)通过立法规范人工智能技术的发展。调查发现,90.69%的人认为有必要对人工智能技术所引发的科技伦理问题实行法治,由此可以看出,要想保证科技的良好健康发展,必须要建立健全相关法律条例。然而我国在这一方面的法律还存在很大的漏洞,相关法律条文滞后于人工智能的发展,并未颁布一套完整的关于人工智能的法律体系。没有规矩不成方圆,在人工智能领域亦是如此。我们都无法预测将来人工智能将发展到何种地步,这时就需要人类预先加以适当的限制,利用法律法规加以正确引导,使其朝安全、为人类造福的方向发展。

(2)构建人工智能技术伦理准则并确立最高发展原则。要构建以为人类造福为最终目的的伦理准则。人工智能技术的伦理问题已经给人类造成了很多负面影响,而要防止其带来更多负面影响,构建合适的人工智能技术伦理准则势在必行。

此外,要确立以人为本的最高发展原则 。一切科学技术的发展都应把人的发展作为出发点。人工智能的发展也是如此,要将以人为本、为人类服务为出发点,并作为最高发展原则。

四、结语

科学技术是把双刃剑,人类只有消除人工智能技术的潜在威胁,发挥人工智能技术最大化效用,避免伦理困境重演,才能实现人机交互的良性发展,实现人工智能与人类的良性互动。

参考文献:

[1]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.

[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.

[3]杨怀中.现代科技伦理学概论:高科技伦理研究[M].武汉:湖北人民出版社,2004.

[4]王志良.人工情感[M].北京:机械工业出版社,2009.

[5]邹 蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(2).

[6]王 毅.基于仿人机器人的人机交互与合作研究[D].北京:北京科技大学,2015.

[7]田金萍.人工智能发展综述[J].科技广场,2007(1).

[8]郝勇胜.对人工智能研究的哲学反思[D].太原:太原科技大学,2012.

篇2

人工智能,Artificial Intelligence,英文缩写AI。在人工智能领域的经典教材,出版于2013年的《人工智能:一种现代的方法(第3版)》中,著名人工智能专家罗素和诺威格从4个方面对人工智能进行了定义,即:能够像人一样思考、像人一样行动、合理地思考、合理地行动的机器。

人机大战只是人工智能开始改变人们生活的一个小例子,事实上,以往只存在于科幻电影的未来世界,正在加速迎面而来,和现实热烈拥抱,甚至让人猝不及防。

“苹果Siri、新闻阅读软件、在线翻译等,都是人工智能技术的代表。”为人工智能摇旗呐喊的不止创新工场创始人李开复一人,微软CEO萨提亚・纳德拉、谷歌CEO桑达尔・皮查伊、百度创始人李彦宏、物理学家斯蒂芬・威廉・霍金……但凡人们叫得上名号的科技公司巨头、计算机科学家无不在向人们诉说着同样一个事实,“人工智能引领的第四次技术革命已经进入爆发的前夜”。

聚焦今天这个时间点,人工智能最耀眼的还是商业化的起步。随着国外科技大佬对于人工智能各种应用场景的开发,国内互联网三巨头BAT也在加速布局,一场真正的AI商业化战争,已经蓄势待发。

篇3

比如,美国政府2016年10月份就制定了一个野心勃勃的目标:在30年内把美国的交通事故死亡人数降为零。2015年美国的交通事故死亡人数增长7.2%,死亡人数为35092人。美国国家高速公路交通安全管理局(简称“NHTSA”)表示,人为因素在交通事故中占比达94%,无人驾驶可以完全消除这项因素。

众多学者和企业更是将其视为重新激活世界经济的主要引擎之一。不过,在这之前还有很多技术、法律乃至伦理问题需要解决。

无人驾驶瓶颈

美国当地时间9月23日,谷歌无人车在山景市与一辆商务货车撞在一起,这可能是谷歌汽车遭遇的最严重车祸。谷歌汽车的右侧车门被撞出大面积的凹陷,车窗遭到一定程度的损坏。车祸没有造成人员伤亡,气囊已经弹开。这起事故是货车司机的失误造成。2016年2月14日,谷歌无人驾驶汽车与一辆公交巴士发生轻微碰擦的事故,这是谷歌首次表示无人驾驶汽车应当“承担部分责任”,地点同样位于加州山景市。

特斯拉公司生产的S型电动轿车则已出现数例自动驾驶模式下的交通死亡事故。2016年1月,河北省邯郸市就曾发生特斯拉自动驾驶致人死亡事故,这应是全球首例。另有业内资深人士透露,特斯拉自动驾驶出现的事故其实多数未被报道。

这些事故都不断引发外界对自动驾驶技术是否足够成熟的质疑。

根据美国加州2012年通过的相关法案,允许无人驾驶汽车上路测试,但需要合法驾车人坐在驾驶座位上,在紧急情况时操纵汽车。特斯拉汽车的操作手册也提醒驾驶者,即便在自动驾驶中,也需要把手一直放在方向盘上。但现实中,驾驶员往往喜欢冒险和刺激。

至于技术成熟后的大规模商用,NHTSA表示,没有方向盘和油门的无人驾驶汽车在美国市场销售之前,相关法规必须做大的调整。

在中国,无人驾驶汽车同样面临法律障碍,问题主要集中在牌照和事故责任认定两方面。

无人驾驶汽车一旦在测试或商用时发生事故,就面临责任划分、理赔等问题。无人驾驶系统、司机、对方的责任如何划定?由于无人驾驶汽车是由多家企业集合研制,这些企业的责任又将如何划分?如果无人驾驶和有人驾驶可以切换,责任又将如何划定?

“应当尽快对事故后保险公司的理赔、无人驾驶技术平台与保险公司对于硬件、软件供应商的责任追偿开展立法工作。只有健全理赔体系时,才能够消除无人驾驶技术的测试与研发过程中各方的后顾之忧,切实推动技术的进步与发展。”中国政法大学传播法研究中心副主任朱巍向《凤凰周刊》表示。

中国科学院大学公管学院副教授刘朝表示,由于无人驾驶汽车仍在测试阶段,技术路线等都不确定,国家层面法律的修订和出台应慎重,自下而上的政策法规尝试和探索不失为一条稳妥而高效的路径。另外,在此过程别需要可靠的传播媒体和真正中立的社会组织发挥积极的作用。

人工智能引发失业潮?

2016年1月,IBM公司开发的Jill Watson分析系统开始帮助美国佐治亚理工大学的毕业生解决毕业论文中遇到的各种问题。Watson在回复电子邮件和论坛发帖时,语气随意,与正常人无异,而且会使用很多口语,能在几分钟之内准确地回应问题。

在五个月的试验中,没有学生发现他们的助教是机器人。

类似的人工智能技术已经被应用在法律服务、医疗助理、金融分析等多个领域,与此相应,部分岗位正在被这些智能机器所替代,从蓝领到律师,从医生到华尔街分析师。

人工智能技术最有价值的应用可能是金融业。在金融领域,每提升1%的收益就能获得巨大的财富。毕马威在近期一份报告中预测,到2030年银行及其服务可能“消失”,类似于苹果Siri的人工助手将接管客户的生活与金融服务。传统银行的多数部门或将消失,而专业的服务则将获得更大发展。

一些评论家预测,人工智能会使得某些工人的技能多余化,那些被自动化所取代的工人不得不寻求新的就业机会。即便这部分工人能够找到新工作,也常常是低附加值的,且工作稳定性更低。从这个角度讲,人工智能不仅可能增加社会不公,更会带来永久性的失业以及贫穷。

诺贝尔经济学奖得主斯蒂格利茨就认为,劳动市场正因为技术变化而发生重要转变,要保护劳动力,就必须对人工智能和自动化系统相关的监管和其他政策变化保持高度重视。

真格基金创始人徐小平近年投资了多个人工智能项目。在他看来,人工智能对人类的影响和冲击将是全方位的。

“有人说,在美国除了卡车司机和销售员,其他工作都在被替代。不幸的是,卡车司机也在被替代。高中学历的美国卡车司机年薪7万美金。所以,特朗普崛起了,支持他的多数是没上过大学的白人,他们在全球化和高科技面前成为失意者。”徐小平告诉《凤凰周刊》。

新近涉足人工智能的雅瑞资本联合创始人张瑞君相对乐观,她告诉本刊,目前投资的项目其实主要是代替人们所不愿从事的低端机械化工作,使人们腾出手来,去做更高端、更有创造性的工作,这是一个逐渐的过程。“而且人工智能产业本身也正在吸纳众多高回报的创业与从业者。”

三角兽科技联合创始人马宇驰就正忙于招聘多位工程师。2016年2月,他与曾效力百度度秘、微软小冰的王卓然、亓超合伙创业,目标是打造一套智能聊天对话系统。其产品主要针对物联W设备,让机器听懂人说话,并作出反馈。其公司目前已获得两轮共3000万元融资,产品已经应用在锤子T3手机、Rokid机器人等。

马宇驰向本刊介绍,根据行业预测,2020年全球物联网设备数量将达240亿部,智能终端设备将达到340亿部,产业和就业空间巨大。“如何快速提升劳动者的技能,这需要社会、政府、教育等的努力,而且人工智能也可以作为培训劳动者的工具。”徐小平说。

冲击人类生存与伦理

2016年3月,谷歌公司创造的人工智能程序阿尔法狗以4:1战胜世界围棋高手李世石,这引发了全球对人工智能的再度关注和广泛思考。有评论说,从现在起,如何管控人工智能,应该成为一个严肃课题。

人工智能的失控乃至危及人类并非遥不可及。美军无人机在阿富汗等中东地区已经多次误伤平民。

科技界的一些知名人士正呼吁禁止“杀手机器人”,他们警告称,越过这一界限将启动一场新的全球军备竞赛。尽管“机器人士兵”仍限于设想,但伴随人工智能快速发展,军队可能在未来20年内部署这类机器人。事实上,包括中国在内的各大国都在加紧研发水、陆、空无人作战平台。

根据摩尔定律,计算机的运算能力每两年就翻一倍,假以时日,尤其人工智能具备强大的自进化能力后,其威力可能超出人类想象。也许它将能让人类永生,同样可能的是地球上所有生命的终结。

物理学家史蒂芬・霍金是忧虑派。“人工智能的强力崛起,可能是人类历史上最好的事情,也可能是最糟糕的。”霍金在一次演讲中说,“将来,人工智能可能会发展出来它自己的意志,一个与人类相冲突的意志。”

当然,机器人也可能并不与人类冲突,而是发展出人类的意识与情感。这同样会遭遇棘手的法律和伦理问题。

篇4

物理学家斯蒂芬・威廉・霍金(Stephen William Hawking):文明所产生的一切都是人类智能的产物,从国际象棋和围棋人机大战的结果来看,生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。人工智能一旦脱离束缚,将以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。

斯坦福大学计算机科学院教授、谷歌首席科学家Yoav Shoham:未来人与机器的界限会越来越模糊,当人和机器融为一体了,就不存在机器会取代人的一个过程。

企业家:

微软CEO 萨提亚・纳德拉(Satya Nadella):未来的AI世界,人和机器的关系不是非此即彼,而应该是人机携手,共创未来。

谷歌CEO桑达尔・皮查伊(Sundar Pichai):关于AI反噬人类的担忧,从长远来看,AI必将提高人类的生活质量。

百度公司创始人李彦宏:人工智能等技术其实没有这么可怕,可以为人们所用,基本上只是披着狼皮的羊。

创新工场创始人李开复:人类面临最大的问题是失业,而不是被机器取代以及机器有了意识去控制人类。

篇5

中图分类号:J905 文献标识码:A 文章编号:1005-5312(2013)20-0140-01

一、科幻世界

影片为我们营造了一个未来的、虚构的科幻世界。无论是影片伊始科学家们在研究室里展示新型人工智能机器人,讨论“能够疼爱父母”的机器人小孩,还是对未来世界和未来“人类”的构想与描绘,都是对科学、对科技的大胆假设。影片中对高科技的彰显,可谓让人应接不暇。

在影片虚构的未来世界里,人工智能机器人为人类提供了各种各样的服务,他们拥有与人类一样的外形,有思想、有意识甚至有爱有疼痛。他们与人类一样来自各行各业,为社会为人类的发展提供服务。这一切都是对人工智能这门科学发展到现阶段的美好展望。

影片中对冰封2000年后的“未来”的描绘一样让我心旷神怡。未来人类的形象、智慧,未来世界的境况似乎都凌驾于现实之上又以优越于现实的形式而存在,这一切都显示了科幻的美好。

二、伦理困境

观影过程中我常有这样一种想法:《人工智能》与其说是一部科幻片,不如说是一部极具科幻色彩的。《人工智能》对伦理的思考用蒙太奇的手法通过几个镜头的表达层层推进。第一个镜头是大卫被马丁激怒吞食菠菜。第二个镜头是大卫与马丁落水后被遗弃游泳池的画面。第三个镜头则是大卫被莫妮卡永远地抛弃时的情景。

莫妮卡和亨利选择了机器孩子大卫替代自己沉睡不醒的孩子马丁,起初莫妮卡十分的抵触、反对,大卫的人工智能系统也未被激活,他的行动例如大笑声都十分僵硬的,直至莫妮卡决定接受他并且说出了激活码的瞬间,大卫喊出了“妈妈”这个让人心碎的单词。大卫是机器,马丁是人,他鄙视大卫,在马丁的眼中,大卫仅仅是一个新开发的。马丁时刻压迫着大卫作为一个“人”所应有的那份权利。斯皮尔伯格用了大量的细节镜头来表现这种人与机器人之间的不平等性。

影片中对《机器屠宰场》的描绘是矛盾冲突的一个顶点。与人类有着类似外形的机器人以种种酷刑和死亡为代价为人类进行表演。机器人的形象与真人相似度极高,这样的画面让我想起纳粹对犹太人的屠杀同类的情景。在这里,影片似乎在昭示:我们生活的现实世界比电影残酷得多。且不论其他生物,每年有多少孩子在饥饿中丧生,在病痛中,但只因为他是黑人、是孤儿、是残疾,我们就悄悄地背过头,把自己的疼痛感应器关掉了。

三、爱的轮回

篇6

一、美丽的误解:算法默认是公平的

建立在算法模型基础上的人工智能给社会生活带来巨大便利,如网络约车、区块链、互联网金融等带来了社会进步,但其潜在的弊端不容忽视。2016年哈佛大学肯尼迪学院的分析报告指出,目前针对犯罪倾向性预测的人工智能系统,无论技术人员如何调整机器学习的策略和算法,人种和肤色都成为无法抹去的高优先识别变量。那么看似技术中立的算法为什么会产生歧视?

算法本质是互联网的编程技术,但这种编程技术绝非中立。谷歌公司的数码相册软件将深色皮肤的人标记为大猩猩,展示了科技错误如何转变成伤害,进而导致社会不安与仇恨。正如这里所示,算法歧视在很多情况下是难以预料的、无意识的副产品,而非编程人员有意识的选择,更增加了识别问题根源或者解决问题的难度。那么算法歧视是如何出现的?首先,算法结果建立在其所使用的基础数据之上,基础数据的不完善将直接影响算法输出的科学性。数据本应是社会现实的反映,但如果编程数据本身不正确、不完整或过时,输出的结果则会以偏概全。我国的裁判文书上网制度有待完善,各省关于类案类判制度的试点也还存在“数据孤岛”等“先天不足”,这不可避免地会损害算法输出结果的公平性。其次,算法的设计、目的、成功标准、数据使用体现了设计者、开发者的主观选择,他们可能将自己的偏见嵌入算法系统,这导致算法继承了人类决策者的种种偏见。第三,算法决策是在用过去预测未来,而过去的歧视可能会在算法中得到巩固并在未来得到加强,因为错误输入形成的错误输出作为反馈,将进一步加深错误。第四,算法决策不仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。

二、算法歧视的治理难点

人工智能的算法决策具有典型的“黑箱”特点,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上非常困难。如果按照现有的法律责任规则,由于系统的自主学习、决策能力很强,它的开发者无法预测最终将输出什么结果,那么黑箱的存在难以查找事故原因,将不可避免地产生责任鸿沟。除了如何通过设计确保算法和人工智能系统的公平性外,算法的治理难点还有以下方面。

首先,法律工具主义思维盛行。工具主义是指将各种科技成果视为解决人类问题、增强人类能力的工具,其在法律领域是实用主义法律观的体现。电脑量刑、类案类判输出的结果之所以往往为民众质疑,是因为只讲手段不问目的的工具主义割裂了法律和道德的关系,导致输出结果无法取得社会认同。工具理性取代价值理性的弊端在现代化早期已经暴露无遗了,技术本身并不是目的,也无法自动形成自己的目的。

其次,算法的透明性问题难以公开。算法的输出是“黑箱”过程,即便人工智能最终的应用出现严重后果,算法的过程也无从得知。人们无法判断损害到底如何造成、更不清楚算法本身是如何编写的。对于掌握先进科技的企业而言,算法往往属于企业的“商业秘密”,是受到法律名正言顺保护的“黑箱”。当利用犯罪风险评估软件对犯罪嫌疑人进行评估时,决定司法判决结果的就不再是规则,而是代码。而编程人员将既定规则写进代码时,不可避免地会对这些规则进行调整,但公众、官员以及法官并不知晓,无从审查嵌入到自主决策系统中的规则的透明性、可责性以及准确性。在缺乏必要的问责机制的情况下,无法矫正的算法歧视对刑事司法是一种嘲讽。

第三,运用法律规制算法歧视在操作层面还需考虑以下方面:第一,公平可以量化、形式化吗?如何被翻译成操作性的算法?第二,公平被量化为计算问题会带来风险吗?第三,如果公平是机器学习和人工智能的目标,谁来决定公平的考量因素?第四,如何让算法、机器学习、人工智能具有公平理念,自主意识到数据挖掘和处理中的歧视问题?

三、通向公正的算法规制

篇7

第一类:弱人工智能Artificial Narrow Intelligence (ANI),弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。

第二类:强人工智能Artificial General Intelligence (AGI),人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。

第三类:超人工智能Artificial Superintelligence (ASI),牛津哲学家,知名人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。

讨论人工智能对法律的影响,我们也会从人工智能的“三大类”入手,各个阶段的人工智能,对法律产生的影响将是不尽相同的。

在第一类,弱人工智能(ANI)阶段,由于人工智能智能处理较为单一的问题,且发展程度并没有达到“模拟人脑思维”的程度,所以人工智能仍然属于“工具”的范畴,与传统的“产品”别无二致。我们目前所处的阶段,就是弱人工智能阶段。虽然无人驾驶汽车、无人机等新产品的出现,给传统法律体系带来许多新问题,引发许多新思考,但仍然属于传统法律体系能够解决的问题。

2016年2月,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴发生碰擦,所幸无人受伤。美国高速公路安全管理局(NHTSA)却确认,根据美国联邦法律,用于自动驾驶的人工智能系统可以被视为司机。那么是“司机”、谷歌,还是驱动汽车的算法、感应器以及所有控制系统来负责交通事故呢?

这起事件引发了许多人对人工智能卷入犯罪案件中责任主体界定模糊的问题的思考。人工智能究竟是不是具有法律和道德意识与行为能力的主体?如果不是,那么当人工智能触犯了他人利益、造成社会损失时,究竟应该由研发者、运营者还是使用者承担责任呢?此时,有哪些法律能够用来保障这些人的权益?如果承认人工智能是有行为能力的主体,那么又该如何为这些“人工智能”定罪量刑呢?

我国《产品质量法》第四十三条规定:因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。属于产品的生产者的责任,产品的销售者赔偿的,产品的销售者有权向产品的生产者追偿。属于产品的销售者的责任,产品的生产者赔偿的,产品的生产者有权向产品的销售者追偿。

显然,在弱人工智能阶段,机器仍然属于工具和产品的范畴。传统的《产品质量法》在这个阶段内仍然可以直接适用。但随着技术的发展,这种情况就会马上改变。

在第二类,强人工智能(AGI)阶段,由于人工智能已经可以比肩人类(笔者认为这是人工智能的“奇点”,在短期内人工智能将极大地超越人类),同时也具备了具有“人格”的基本条件。

由于机器可以像人类一样独立思考和决策,该阶段的人工智能应该和人类一样,成为独立的主体享有权利,并对自己的行为承担责任,这将体现在财产、继承、侵权、刑事等各个方面。这个阶段的法律已经基本无法直接套用,人工智能将对传统法律体系产生巨大的冲击和颠覆。

在第三类,超人工智能(ASI)阶段,该阶段的人工智能已经跨过“奇点”,其计算和思维能力已经远超人脑。人工智能将打破人脑受到的维度限制,其所观察和思考的内容,人脑已经无法理解,人工智能将形成一个新的社会。

人类的法律体系仅在人类社会生效,在这个阶段,人类规则的制定已经无法影响人工智能,因为人工智能已经超出了人类社会的范畴。随着技术的进步和人工智能的自我改进,一个比我们聪明100倍、1000倍、甚至10亿倍的大脑也许能够随时随地操纵这个世界所有原子的位置。此时的人工智能已经不是人类可以理解和想象,人类的法律体系也会随之消亡,或转化成另外的形态而存在。

基于此,笔者大胆地提出人工智能对法律影响的几点预测:

第一,成文法将会萎缩甚至消亡。可以预见,人工智能和新技术留给立法的时间将会越来越少,越来越多的极其复杂的新问题将迅速出现,成文法将成为历史;

第二,法律体系将彻底颠覆。随着人工智能从低到高的发展,工具终将将具备人格、超越人格,我们传统的法律体系也将失去存在的基础;

第三,法律将在“创新”与“生存”之间不断博弈。创新的伦理问题将伴随人工智能发展的全过程,是否允许技术创新迈向“奇点”,用以保卫人类的“生存”,或许会逐渐成为立法者考虑的核心问题。但立法者很可能会发现,创新也许是人类社会发展的规律。

现阶段,人工智能已经逐渐对法律领域产生影响,并引起了法律领域的变化,我国的法律体系应当重视变化,积极向人工智能时代转型升级。

例如,人工智能技术在合同审查、资料收集、尽职调查、材料翻译等领域为法律工作提供极大的便利,并且在工作效率上具有明显的优势。这会进一步影响到司法机关、公证机构、律师事务所的用人模式,可能会减少这些机构对入门级技能新人的雇佣和培养。

再例如,由于创新技术和人工智能的发展,新事物产生的时间大大缩短,由新事物而引发的新案例将越来越多。而现阶段,人工智能还不能够独立地提供法律服务,更不能独立地对案件进行分析和审判。这需要大量的法官、检察官和律师们积极拥抱和学习新技术,并且需要一定的深度。这对于传统法律人来说,难度很大。专业人才可能会在一段时间内出现严重的断层,法律在短期内对新事物新案例也将无暇响应。法律应当重视内生规则(如网规)、判例的作用,通过柔性、大众化、平台化的规则治理,通过数据和算法来预判行为,来适应这种“断层”。

篇8

应该向谁追责呢?

让我们先来谈谈责任问题吧。首先,我们可以模拟一个侵权(民事)责任问题,想象下,在不远的将来可能会发生这样一个场景:一辆无人驾驶拖拉机原本应该按照指令在A农民的田里播种,但是奇怪的是,它却把种子播种到了B农民家的田里。

让我们先假设A农民是完全按照操作手册来使用那辆无人播种拖拉机的,同时,我们也假设A农民无需再做其他额外的操作,比如在农田交界处设置无线电信标,等等。那么现在,假设农民B要来控告这次错误播种事件(我们暂且不考虑诸如滋扰和侵犯等问题),会遇到哪些问题呢?。

实际上,有很多问题需要被回答,这个事故是农民A的责任吗?可能不是;那么,是无人播种拖拉机厂商的责任吗?有可能,但在此之前,我们是不是该明确与这些问题相关的责任和标准呢?比如无人播种拖拉机的行业标准是什么,制造商的产品规格是否符合相关标准呢?不仅如此,如果自己的土地被他人种植上了其他农作物,这是否算是财产损失,又是否能否追溯经济赔偿呢?

在一连串问题之前,我们其实是先假定了无人播种拖拉机里面的系统软件是由制造商开发的。那么接下来又有新的问题出现了,如果那套人工智能系统是由第三方开发公司完成开发的,该如何处理?还有,系统内部的软件代码是由多人合作完成的,又该如何界定各自的职责?

随着时间的推移,人工智能系统将会越来越不依靠传统的经典算法和代码,而且他们也会展示出更多我们无法预料到的行为,值得一提的是,这些行为没有人可能预测得到,甚至包括人工智能系统的创造者也无法预料。但重要的是,可预见性,其实是处理责任过失问题中一个非常关键的组成部分。

为了能够让读者更好地理解可预见性问题,我们才会假设了上面那个无人播种拖拉机的案例,或许十年、二十年之后,人工智能已经不再是简单的种错庄稼这件事儿了,它可能会是某个意外让人们受伤,更严重一些,人工智能可能会不小心杀人。所以,如果我们的法律无法适时作出改变,那么未来将会导致更多问题出现。就拿上面那个人工智能种错庄稼的事情为例,当无法实现可预见性,最终的结果就是没人承担责任!

责怪人工智能机器人

为什么我们不干脆去责怪机器人呢?毕竟,关于人工智能人格也有过讨论,而且人工智能系统本身也有担负刑事责任的可能。

但是,这种方法在实际应用时又有什么不一样呢?这里,还是借用别人曾经说过的一句话吧。“人工智能系统真的会像著名小说家艾萨克·阿西莫夫笔下的机器管家那样吗?遵守法律,遵从道德良知,还能保护银行存款?”

我们姑且不去讨论人工智能系统是否可以被起诉,但人工智能制造商和开发商们必须受到监管。只有这样,才有可能将一些无法归责的各方,用严格责任赔偿(注:严格责任赔偿是指只要造成了损害,不论行为人有无过错,都要承担赔偿责任。常见的适用于无过错责任原则的,有从事高压、剧毒、高速、放射等作业造成他人损害的。工伤是典型的适用无过错责任原则的,也就是说只要劳动者在工作期间因公受伤了,排除劳动者个人主观故意的因素之外,雇用单位无论有无过错都要承担工伤赔偿的责任的。)约束起来,

实际上,在我们的日常生活里,严格责任赔偿已经应用到了很多地方。当然除了这种责任赔偿之外,如果需要对人工智能追责,其实也可以采用无过错责任赔偿和赔偿方案池等方式。

规章制度

如果从监管的角度来看人工智能,那么你会发现,严格的安全标准,以及建立完善的安全认证流程也都是非常必要的。不过,如何设计一个合适的机构与流程框架,并且让这个框架得以有效运行,依然是一个非常棘手的问题。

人工智能领域复杂难懂,而且外部世界对于人工智能研发圈子普遍缺乏认识,这也就是人工智能专家需要尽快创建行业框架的原因所在。实际上,这里所说的框架,就是规章制度,说通俗些也就是游戏规则。因此,这意味着人工智能顾问委员会需要和政府一起,尽快立法,建设行业标准。

我们不得不承认,人工智能行业存在巨大的潜在效益;但是标准和流程,需要不断的创建、更新、并且执行,这样才能达到一种持续性平衡,继而最大限度地提高公共福利和安全;当然,也只有这样,才不会扼杀创新,更不会出现不必要的法律负担。

篇9

一、人工智能技术的定义及其技术特点

(1)人工智能技术是指通过计算机的算法对人脑控制人类的活动进行技术模拟,发出与人类行为相似的系统指令,从而能够解决传统学科难以解决的问题。人工智能技术作为一门新兴的学科,不仅包含数学、计算机学等传统学科,也包括了哲学、心理学、伦理学等学科。因此,人工智能技术可以说是全面地模拟人脑,以期达到人脑控制下的行为反应,最终达到单纯依靠机械来完成高危险、复杂的工作。(2)人工智能最大的技术特点即为可以利用计算机模拟运算来达到人脑思考的效果。与人脑思考相比,人工智能技术能够更有效地进行信息的采集、问题的分析与处理,在这种优势的促进下,复杂的脑力活动将逐渐被计算机的智能运算所代替。通过这种方式,可以极大的减少人力劳动与人力成本的资源投入,同时提高工作效率,实现产业结构的优化配置,最终提高生产力的发展水平。

二、人工智能在电气自动化控制中的应用

如何保证电气设备有条不紊地运转一直是电气自动化领域中亟须解决的问题,然而这个问题本身具有极大的复杂性,电气自动化控制领域中的人才培养十分不宜且后备力量严重不足。而人工智能技术的出现则有效的缓解了人才缺乏的压力,通过计算机的智能运算,可以有效的代替人脑对电气产品进行设计,而且当电气自动化工作过程中出现问题时,计算机也会及时做出反应。在电气自动化控制领域中实施人工智能技术,可以有效的降低生产成本,实现电气系统控制下生产结构的优化。(1)电气类产品设计时,人工智能可以对产品设计进行优化。由于传统的设计方式在前期会有一个漫长的产品试验过程,需通过归纳法得到相关设计经验后再由产品设计师进行手工完成,而这一过程很难达到产品预期的效果,且前期的试验与后期的制作方式都需要投入大量的人力物力与财力,所以,这样的生产方式显然不适用于当今社会科技快速发展的需要。人工智能技术的加入极大的改善了这种情况,优化了产品的设计过程。首先,CAD等电脑设计系统软件的出现,辅助人们进行前期产品的试验,由于计算机相比于人脑具有准确率高、运算快速等特点,因此这一前期的试验周期得到了极大的缩短。(2)面对电气自动化控制过程中出现的故障与事故,人工智能技术可以及时预防与解决问题。人工智能技术的出现与发展则有效地改善了这种情况,特别是处理在变压器、发动机等问题上,人工智能技术的表现尤为突出。例如,如果变压器工作不畅,出现故障时,早期的解决方法一般是先对变压器产生的气体进行收集、提取,然后分析得到的气体,最后根据分析得出的结论来判断故障出现的原因。这种方法不仅耗费大量人力与财力,最重要的是分析问题的周期相当长,此外,这种解决方法并不能保持一个较高的准确率,一旦出现不到位的诊断,后果不堪设想。人工智能技术则不会出现这种问题,计算机会根据专家的技术指导与平常机器故障的样本收集,对所产生的问题进行及时有效的分析,最终生成解决方案,不仅可以提高分析问题的准确率,也可以缩短分析问题的周期,全面的提高处理问题的效率。(3)人工智能技术可以简化电气自动化的控制流程。电气自动化领域的操作流程非常的繁琐,对于操作的步骤要求也非常严格,一旦出现细微的操作问题,则可能引起严重的机器故障发生,并造成无法估量的损失。如何保证电气设备能够有效稳定的运作,并在控制过程中尽量实现操作的简单化、程序化是每个研究人员关心的难题。人工智能技术的出现与发展有效的解决了这个难题,通过对日常资料的储存与分析,可以在机器发生事故时采取有效及时的措施,最大程度上保证社会的和谐发展。此外,人工智能技术通过对电气设备的远端操控,实现了控制流程的简单化、程序化,方便技术人员对电气设备进行定期的检查与维修,节约时间的同时,也降低运行成本。

三、总结

计算机技术的发展促进了人工智能技术的不断创新与发展,这项技术已经在社会各个领域中起到了极大的作用,方便了人们的生活,并不断促进社会进步。电气自动化控制行业与居民的安定生活、社会的和谐发展息息相关,因此更应大力发展人工智能技术。本文主要阐述了人工智能技术的定义特点以及在电气自动化控制中的具体应用,希望能为我国的电气设备的发展上提供帮助。

参 考 文 献

篇10

随着人工智能技术的不断成熟,大数据分析处理与机器学习等技术的不断发展完善,一个与以往截然不同的智能媒体时代正在来临,而广告行业自然也面临着变革。一方面,媒体行业积极寻求智能化的步伐,催生了智能广告这一具有广阔前景与极大潜能的产业;而另一方面,“随着人工智能、移动互联网等技术的进一步成熟,媒体的智能化道路获得了源源不断的动力”[1],被机器学习能力与算法迭代加持的人工智能技术,正在为广告行业带来一场前所未有的变革。在广告行业智能化的变革中,传统广告行业不断地瓦解与重构,广告的运作模式与分发策略,相较以往也发生了不同程度的改变。在技术为行业带来变革与机遇的同时,因为技术发展不完善、监管能力滞后等因素所产生的潜在风险也不容忽视。这些机遇与风险为学术研究提供了一个全新的视角与切入点,本文将从智能广告发展溯源、智能广告的传播特征、智能广告时代的潜在风险三个维度进行剖析。

一、智能广告发展溯源

计算广告这一概念最早于2008年被提出,其核心是一种能够做到精准投放的广告投放机制。它在基于大量数据收集的基础上进行实时高效的计算,对用户进行场景画像,找到最优匹配的广告内容并定向投放给目标用户群体,由此能够将广告收益大幅拉升。这一广告投放机制在商业上取得了极大的成功,谷歌公司在2019年第一季度基于数字计算广告的营收就达到了373亿美元。计算广告在其诞生之后也在经历着不断的迭代升级。随着智能化浪潮席卷全球、人工智能技术与广告行业进一步融合,以计算广告为基础的智能广告应运而生。在目前国内对于智能广告的研究中,有学者对“智能广告”这一概念做出了较为清晰的界定,即“以数据驱动为基础,利用人工智能技术实现广告内容的耦合生产、精准投放与互动反馈从而个性化地满足消费者生活信息需求的品牌传播活动”[2]。智能广告在原先计算广告的基础功能上,进一步发展出了即时性内容生产与创造、精准化个性化内容分发、依据反馈数据进行广告效果优化等能力,对于整个广告产业链有了更加全面的渗透,从某种程度上来说,智能广告是对计算广告的进一步发展与升级。

二、智能广告的传播特征

人工智能技术对广告的深度介入,不仅使得广告的内容生产与呈现方式出现了改变,“对产业运作形态、产业链生态也带来了革命性变革”[3]。

(一)人工智能对内容生产的深度参与

相较于传统的数字广告,智能广告最大的特点之一就是人工智能技术对广告的创意策划与内容创作进行了深度的参与,智能广告的内容生产大部分由特定算法负责,相较于人类设计师,负责智能广告内容生产的人工智能可以进行不间断的自我优化升级,同时也能与最新市场动向相结合。例如,天猫的广告AI设计师“鲁班”,在2017年的“双11”活动期间,这一人工智能设计师共生成了4.1亿张海报。如果以每张海报花费20分钟的时间计算,将同等数量的海报由人类设计师来完成,总共将会耗时近300年的时间。由此不难看出,智能广告在生产效率与内容时效性方面具有极大的优势。而在广告的内容呈现方式上,智能广告最为核心的特征是“千人千面”的个性化内容呈现。由于广告内容的生产效率与数量脱离了人力的限制,使得智能广告能够依托用户画像等技术为基础,为不同的用户进行个性化的内容定制创作并加以针对性地投放。以前文提到的天猫AI设计师“鲁班“为例,在同一时间,使用不同的手机打开淘宝,APP首页所出现的广告海报均不相同;SaatchiLA的人工智能“沃森”,在为丰田汽车公司的新车型进行推广营销时,广告内容的呈现方式也显现出了相同的特征。该公司在Facebook上开始了一项运动———“ThousandsofWaystoSayYes”(成千上万种说Yes的方式),并且最终基于100多个不同的人口统计特征,生成了100余条针对不同用户群体的个性化广告。综合以上叙述我们可以发现,人工智能对于内容生产的介入,使得广告的内容生产进入了高效率的工业化生产时代,由此生产出的海量广告产品推动了广告个性化的呈现方式。

(二)基于用户画像的分众化传播策略

智能广告时代,广告的智能内容生产与呈现方式的转变,自然也促使广告的传播策略发生转变,而广告生产与传播重心也发生了较大的偏移。在广告的传播策略方面,传统的广告传播策略往往是基于广告理论、市场及消费者调查而进行制定的,由此所形成的传播策略针对的受众往往较为宽泛,投放策略较为粗放,所获取的传播效果也与预期有一定的差距。而智能广告的投放策略主要是基于用户画像,再通过大数据与算法对受众进行精细化划分,筛选出合适的广告受众之后再进行广告投放。最为典型的案例就是信息流广告,这一形式的广告广泛存在于社交媒体(如国外的推特、Youtube,国内的新浪微博、微信)当中。此外,智能广告在传播时会选择与内容信息进行深度融合,这一传播策略使得智能广告对受众的心理把握得更为精准,使得广告的商业化目的更为隐蔽。如前文提到的信息流广告,往往都与潜在受众所浏览的信息、咨询等相融合,“并且通过用户的刷新行为不断变化,更易于用户接受”[4]。智能广告在广告投放效果监测方面也同样与传统广告有着较大的不同,智能广告经过分发之后,可以实时根据后台的反馈数据进行广告效果监测。同时,智能广告在投放的同时往往会保留手中的反馈渠道,如Youtube在进行智能广告投放时所使用的反馈机制,用户可以根据自身的喜好程度,对投放给自己的广告进行意见反馈,这使得系统能够根据用户反馈对广告的传播策略进行实时调整,从而形成针对不同客户的不同投放策略。

(三)日趋完善的智能广告产业链

由于智能广告所取得的投放效果更为优异,因此广告主对智能广告的投放兴趣与投放预算正在逐渐增加,而这一系列的变化必然导致传统的广告产业链发生格局转变。目前,国内正在逐步形成一条完整的智能广告产业链,这一产业链的主体“包括智能广告技术公司、智能广告媒体、智能广告监测公司、智能广告数据管理公司、智能广告交易平台等”[5]。由于智能广告的传播主要依托于受众数据与用户标签,受众数据成为广告运营机构的核心资源,而拥有大量数据计算、分析、处理能力的智能广告技术公司在产业链中占据了较为核心的地位。如前文所述,由于广告的创意与内容则逐步成为了数据优化与算法计算的一个组成部分,广告的创意策划人才、资源正在逐步向幕后隐退,传统的广告设计公司在未来将会受到进一步的冲击。

三、智能广告时代的潜在风险

在技术为行业带来变革与机遇的同时,因为技术发展不完善、监管能力滞后等因素所产生的潜在风险也不容忽视。

(一)消费者个人层面

1.个人信息与隐私泄露风险

广告受众关切程度最高的一个潜在风险是自身的个人资料与隐私信息是否会遭到智能广告公司的滥用与泄露。由于大数据已成为众多智能广告公司的核心资源,其背后所蕴含的经济价值进一步助长了不当利用个人隐私信息的不良动机。由于智能广告的核心是建立在大量的数据搜集与分析的基础上,智能广告公司所抓取的数据中必然含有大量的用户隐私数据,因此用户个人隐私权的保护与广告公司的数据使用似乎正在形成一个无法调和的矛盾,如何处理用户隐私所带来的信息伦理问题,在未来也需要进行更加深入的思考与解决。

2.非理性消费风险

鲍德里亚在其《消费社会》一书中提到,“消费者总是怕‘错过’什么,怕‘错过’任何一种享受”。而智能广告在传播过程中往往与信息内容深度融合,对于消费者的心理把握更为精准,让广告的商业化目的更为隐蔽,而“广告的功能性美丽则唤醒了消费者内心的隐秘与欲望,产生购物的冲动”[6]。这使得消费者更容易受到智能广告的操纵,从而导致非理性购买行为。

(二)行业生态层面

1.数据孤岛导致的行业信息不平衡风险

一个良性的广告产业生态,往往是建立在行业内部的信息共享这一基础之上的。但是由于数据自身所带有的隐私性,加之数据在信息化、智能化时代往往蕴含有极高的经济价值,这也使得公司之间对于数据的共享意愿处于较低的状态,同时也促使了“数据孤岛”的出现,如何避免数据垄断的出现,如何在数据共享与公司利益之间寻找平衡,这需要整个行业的进一步思考。

2.广告内容工业化生产导致的广告文化属性下滑的风险

广告除了与生俱来的经济属性外,还包含了一定的文化属性,而智能广告的核心往往是追求经济效益的最大化,这也使得广告的文化价值可能会被忽略。目前的人工智能水平仍然处于弱人工智能阶段,如何使AI理解人类的情感与文化需求、如何保证机器生产的广告内容不只是冰冷的掘金机器,这一问题也需要引起重视。

四、结语

正如一些学者所言,“未来互联网发展和竞争的高地,就是对广域网络空间中的人与人、人与物、物与物实现其价值匹配与功能整合的高度智能化”[7]。广告行业的智能化已然是大势所趋,通过智能化的广告生产与运作,能够推动广告行业形成新的行业生态,提升广告产业的经济繁荣程度,对于整个经济社会的发展都具有积极作用。在智能广告为行业带来新的机遇与变革时,我们需要清晰地认识到技术与风险相互并存,而如何应对这些潜在风险,需要业界与学界进一步合作与思考。

参考文献:

[1]苏涛,彭兰.“智媒”时代的消融与重塑———2017年新媒体研究综述[J].国际新闻界,2018,40(1):38-58.

[2]姜智彬,马欣.领域、困境与对策:人工智能重构下的广告运作[J].新闻与传播评论,2019,72(3):56-63.

[3]李名亮.智能广告信息伦理风险与核心议题研究[J].新闻与传播评论,2020,73(1):76-84.

[4]唐英,黄丹旎.新《广告法》语境下微信信息流广告监管制度研究[J].当代传播,2020(1):86-88.

[5]廖秉宜.优化与重构:中国智能广告产业发展研究[J].当代传播,2017(4):97-101+110.

篇11

诚然,科学技术的进步为人类生活带来了极大的便利,但不能否认的是,在未来,智能机器人很可能为人类带来了个人价值与伦理方面的巨大挑战。

无用的人类

7月28日,据《每日邮报》报道,澳大利亚机器人公司Fastbrick Robotics推出了一款机器人瓦匠Hadrian X,只要2天时间就能建造起一整栋房屋,而且不需要休息。它强大的生产能力促使它成为了建筑工人最为强劲的竞争对手。强生产性机器人的出现将导致一部分基础性作业的工人失去原本稳定的工作,由此对机器人产生深深的敌意。在其他工作场景中,工业化生产解决了一些基础、繁琐的工作,同时也带来了对个人存在价值的重新审视。

“算了,还是我自己来吧!”在职场中,时常听到工作经验丰富的老员工对职场小白这样说。这句话背后涵盖着很多问题,核心都可以归结到“对协同效率的担忧”。单纯完成基础性工作已经不再适合在如今快速发展的社会中立足,一百多年来在工业革命中发挥重大作用的流水线,一时间也失去了原本稳固的地位。

经济学的主要创立者亚当・斯密在其著作《国富论》中认为,精细的分工可以促进劳动生产力。于是,大多数企业家梦寐以求着将事情细化拆分,让低成本的劳动力也能做。分工的明确以及流水线的顺畅,使得效率和用人成本得到了显而易见的优化。但在今天,这提升似乎变得不那么确定了。

科技的进步将人类从简单的重复性工作中解脱了出来,在免除了员工对枯燥无趣或是危险的任务产生抱怨之外,还提升了企业的生产效率,降低了企业的劳动力成本,使得企业投入更多的人力、财力去争夺更大的市场,而员工也更加注重培养个人技能的不可替代性。这些代替人类工作的机器以各种形态出现在我们身边,除了成型的工业流水线,还有更加智能的扫地机器人、仿生机器人、空中机器人,甚至还有隐藏在屏幕后精准回应客户需求的客服机器人等等。目前,科学家的研究使机器人的功能愈发多样化,逐步从工业机器人向服务机器人和特种机器人进行转变,而其外观形象也愈加逼 真。

那么,这些酷似人类的机器人是否会完全替代人类呢?

国际机器人联合会(IFR)的一份研究显示,先进的机器设备可以提高劳动生产率和产品质量,创造出更多的社会财富,也就必然提供更多的就业机会。任何新事物的出现都有利有弊,只不过利大于弊,很快就得到了人们的认可。

美国麻省理工学院(MIT)一直是机器人科技研究的先驱,曾研究出猎豹、Atlas等轰动世界的军事机器人。8月13日,在全球人工智能与机器人峰会机器人专场上,MIT机器人实验室主任Daniela Rus表示,相较于担心机器人取代人类,人们更应该担心建造机器人的速度还不够快。在中国,到了2050年就只有20%的人仍处于工作年龄,所以更应该加速机器人的生产制造以弥补劳动力的短缺。因此,她提出一个愿景,期待未来的工厂会有更多的机器人跟工人并肩工作,未来机器人会比现在的更加先进。

但是,机器人毕竟还是有弊端的,若机器人被人类赋予了完全自主的思想,那么世界将会变得不再平衡,而这样的日子也并不遥远。

8月2日,俄罗斯研究人员宣布将在未来一年半的时间里,通过分析、模仿人类大脑工作的方式,研发出一款具有情绪的机器人。该机器人不仅能通过设定好的程序或增强学习技术进行学习,像人类一样思考眼下发生了什么事情,并跟上这些事情的节奏,还可以提出相应的问题来实现这些目标,并积极地寻求答案,逐步累积起对人类的信任。

事实证明,智能机器人的发展很有可能在不久的将来使其具备一定的自主思想。这一旦成为现实,势必会像克隆人的出现一样,给人类带来伦理道德的强烈冲击。

从科幻走进现实

“机器人(Robot)”这个词诞生于1920年捷克斯洛伐克作家卡雷尔・恰佩克的科幻小说《罗萨姆的万能机器人》中,是从Robota(捷克文,原意为“劳役、苦工”)和Robotnik(波兰文,原意为“工人”)演变而来。就像诞生于科幻小说之中一样,人们对机器人充满了幻想。也许正是由于机器人定义的模糊,才给了人们充分的想象和创造空间。

然而,凡事都有节制,对机器人的开发也并非没有限制。

早在1940年,为了防止机器人伤害人类,科幻作家阿西莫夫(Isaac Asimov)就提出了 “机器人三原则”:

1、机器人不应伤害人类;

2、机器人应遵守人类的命令,与第一条违背的命令除外;

3、机器人应能保护自己,与第一条相抵触者除外。

学术界一直将这三原则作为开发机器人的伦理性纲领,但对于伦理的挑战从未中断,尤其是在科幻作品中,由于机器人并非只具备生产性,其社会性导致的危机并不仅限于工作层面,更多的是在伦理层面上,因此机器人的存在对人性的冲突引发了人类的恐慌。虽然科幻世界只是一种想象,但人类社会将可能面临这种现实。

科幻小说《罗萨姆的万能机器人》预告着,机器人的发展会对人类社会产生悲剧性影响。2015年的英美剧《真实的人类》和科幻题材的文学作品一样,真正关注的并非高科技的美好,而是可能引发的危机。

《真实的人类》讲述了合成人被繁忙都市中生活的人类广泛使用,而随着合成人与人类越来越相似,人类的行为受到合成人影响而发生变化的故事。合成人并不像人类一样具有情感和逻辑,它们更像是机器,以执行人类命令为天职。然而,剧中一个家庭关系紧张的郊区家庭为了改变生活方式而购买的二手合成人,竟然是具备自我意识的特殊合成人,并非一味顺从他们的奴隶。他们开始意识到,人工智能飞速发展会给人类带来的种种便利与危机,和合成人在一起生活会在伦理道德方面产生可怕的、影响深远的后 果。

随着机器人外表的逼真程度不断向人类靠拢,以及人工智能技术与机器人的不断融合,《真实的人类》涉及的伦理道德问题也不无可能成为现实,包括机器人的社会角色,机器人的行为触及法律,人类将机器人作为奴隶或与机器人产生依恋情感,甚至将机器人当作家庭成员等等一系列的问题。

那么,人们距离这一天究竟还有多远呢?

过去,即便科技进步迅猛,人们依旧认为机器人的创造能力和学习能力与人类相比还有着很大的差距,因此对于机器人的智能程度和发展前景也存在质疑。但随着人们对机器人技术智能化本质认识的加深,人工智能和云计算技术已经在机器人的应用上得到了体现,并逐渐向人类活动的各个领域渗透,机器人将很有可能获取近乎人类的创造能力和学习能力。

目前,以谷歌为代表的科技企业和科学家们正试图以人工智能来弥补机器人在创造和学习方面的不足,并在云计算服务中扮演起越来越重要的角色。谷歌的人工智能程序使用了机器学习技术,使电脑可以从数据流当中提取数据,进行抽象处理,翻译文本内容以及易于理解的图片,包括标记,以及通过面部表情识别情绪等等,从而归纳出有意义的信息。

机器人不仅可以进行人机对话,甚至还可以写小说。

篇12

这份题为《伦理对齐设计》的报告长达100多页,提出了相应的发展指南和指导准则,希望AI领域专家、自动化系统专家应更多的投身系统设计的后果等方面的研究,并将人类伦理带入到AI的研究推V当中。

在AI席卷全球的当下,智能制造和自动化系统中的伦理因素已变得越来越重要,因为越来越多的AI技术已被运用到市场和政府的工作当中。由此引发的很多讨论也是围绕着先进的AI系统而展开的,而现在已经有了能够对商业和政治决策产生重大影响的AI新技术。

IEEE人工智能与自主系统伦理道德考虑全球行动计划主席Raja Chatila在接受媒体采访时表示,AI系统技术工程师未必都清楚人与智能机器人之间存在的潜在问题。

他说,“我个人认为,大多数工程师和公司还没有真正意识到这些伦理问题,也没有真正面对这些问题。因为他们虽然受过开发高效工作的系统的培训,但是没有受过关于伦理问题的培训。”

已经出现的问题之一,即算法偏差。AI系统的确能够反映制造者的意图,但是如果这些意图与使用者不一致时,就有可能带来很多棘手的问题。

关于AI技术在研发与生产过程的透明度,该报告反复强调,急需建立一个能够报告“为什么做出该决定”的自动化系统。然而,目前最先进的AI系统也很难实现这个目的。更重要的是,研发企业隐藏AI系统的内部详细信息的情况也不少见,这也是推动AI系统透明度面临的一个重要问题。

透明度不仅是理解图像识别算法等技术的关键,也是未来我们如何进行战争的关键。IEEE报告对AI武器的讨论充斥着平静而可怕的语言,如“这些AI机器一旦失控将导致不负责任的暴力和社会破坏”。

为了阻止AI武器带来极大的破坏性,IEEE组希望更多的人参与到这些AI系统研发之中,在AI武器启动之前能够实现有效的控制。

未来,IEEE将围绕伦理和AI而建立IEEE标准,并针对AI系统设计中伦理问题建立三项标准(其中一项已经实施),另外两个正在制定中。

友情链接