解决人工智能伦理困境的对策,伦理学论文.docx
《解决人工智能伦理困境的对策,伦理学论文.docx》由会员分享,可在线阅读,更多相关《解决人工智能伦理困境的对策,伦理学论文.docx(11页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、解决人工智能伦理困境的对策,伦理学论文题目:第一章:第二章:第三章:第四章:解决人工智能伦理窘境的对策结论/以下为参考文献: 第 4 章 解决人工智能伦理窘境的对策 机器人伦理研究研究的基本目的之一就是希望机器人能够具有伦理判定与行为的能力,使机器人的行为对人类更有利,华而不实最基本的手段就是对机器人进行伦理设计。从机器人伦理设计的角度看,能否该限制机器人对本身权利的要求?比方讲自由权,试想一下,拥有高度自由权的机器人怎样为人类服务?假如机器人拥有高度自由选择的权利,他们选择与人为敌岂不是让很多科幻电影中的情景变成了现实?假如人工智能发展到比人类智能更强大的地步,能否还会同意被人类统治?能否人
2、类会被机器人统治?这些显然都是人类难以接受的,但并非不会发生,而笔者本人是宁可信其有,我们必须防患于未然。不管科幻电影里的场面能否会真实的发生,可由人工智能引发的伦理问题是确实存在的。面对这些伦理问题的出现我们必须坚持人本主义的立场,从技术上、法律上、道德上、人类本身发展上以及监督管理上着手解决现实伦理窘境,确保人工智能技术发展始终走在为人类谋取幸福的正确道路上。 4.1 以主义指导人工智能技术的发展。 以实践概念为主线的主义哲学高度重视和弘扬人的主体性,主体性原则是主义哲学的基本原则。主义哲学从人的实践活动出发,唯物辩证地阐释了人的主体性。 4.1.1 坚持主义科技观的基本立场。 讲: 人作
3、为对象性的、感性的存在物,是一个受动的存在物;由于它感到自个是受动的,所以是一个有激情的存在物。 关于对于人的多个解释,我们能够明显的发现我们区别于其它动物的特点,当然也包括将来出现的强人工智能机器人, 一个激情的存在物 便是最有力的独家存在感。在这个世界上,没有任何另外一种生物或者产物能够取代人的地位,这个世界没有办法离开人单独存在。而 科学技术是人的创造物,是人类认识世界、改造世界的手段和工具。 所以我们在发展科技的同时务必要始终坚持人的主体性,而包括科技本身在内任何的科技产物都只能是客体。若在发展科技的经过中,颠倒了人和科技的主客关系,会使人在强大的科技气力面前唯命是从,不但阻碍我们正确
4、的认识和运用科学技术,还会误导我们对科学技术消极影响的源头把握。 人工智能作为科技界的一大新兴产物,在将来的数十年甚至数百年都可能长期占据着科技板块的新闻头条,越来越多的存在于我们生活中的每一个角落。作为这个世界的绝对主体-人,我们要真正的使人工智能技术与社会协调发展,是其长期的造福于人类,并要以人的合理需求为限度,发展以人为中心的技术。并始终坚持人工智能技术最高发展原则:以人为本。 4.1.2 让程序语言融入哲学思想。 技术缺陷和滥用是一种非常接近人类真实生活的风险。从技术角度看,计算机病毒,足以毁坏当代人的正常生活。我们假设最坏的情况发生:智能机器人的谋杀,华而不实包含 2 种,一种是机器
5、人控制,一个是杀手级机器人遥控器,机器人只是一个工具,由操作者承当责任,但假如纯失去控制它?这牵涉计算机能力的问题。 艾提克森以为,无法防止机器人的恶化,原因之一就是包括好的和坏的人都能够利用技术。就如我们担忧人工智能另一种发展途径一样,随着计算机的小型化、芯片的广泛应用,很多研究人员在人工智能领域都把注意力放在人机结合,简单来讲就是把芯片植入人脑。随着植入芯片的不断高阶化,人脑与芯片相互支持,谁主谁从很难讲。这条路对于人工智能发展可能是条捷径,但也极具风险。 首先出现的便是公正问题-谁能够植入芯片?撇开公正不谈,还有一个宏大的风险-写芯片程序的人能够控制任何被植入芯片的人,这比洗脑更直接。假
6、如程序是负面的,后果不堪设想。 至于技术滥用的问题,我们把它交予科学家道德和法律来解决。而技术缺陷造成的风险则需要我们从当前的人工智能底层技术做起,当前的人工智能技术还是依靠于计算机语言,无论从行为还是语言上都是这样。可就当前计算机语言的发展而言,编程时所产生的各种 BUG 都为人工智能将来的工作和社会融入埋下了负面的种子。这就需要我们在进行人工智能技术研发的经过中不断更新我们的编程语言,让程序语言融入哲学思想,让人工智能机器人越来越人性化的为人类服务,制造出愈加自由、愈加理性、愈加有尊严的机器人。 4.2 正确认识人工智能发展要求。 在人工智能技术的发展经过中,无论是作为研究者创造者的科学工
7、作者,还是作为使用者的普通民众,都要正确的认识人工智能技术发展的内在要求,坚持人工智能的发展不脱离 为人类服务 的宗旨,始终保持这门新兴技术的 向善性 . 4.2.1 加强科学家社会责任感。 在小科学时代,很多科学家采取了科学对社会责任的中性的超然的态度,亚里士多德在(道德沦卷 10中就写道: 考虑理性问题的学者不需要这一切装饰品,它们或许会成为他考虑的障碍。 然而,从早期到科学,科学,生产,科学和社会,科学与政治之间的关系变得非常密切。科学的影响越来越大,它不仅能极大地造福人类,但也能极大地伤害人类,甚至毁坏灭亡人类,爱因斯坦曾讲过: 以前几代的人给我们高度发展的科学技术,这是一份难得珍贵的
8、礼物,它使我们有可能生活得比以前无论哪一代人都要自由和美妙。但是这份礼物也带来了从未有过的宏大危险,它威胁着我们的生存。 这样,科学家不仅对自个的工作和科学界的其他成员有一个道德义务,而且对整个社会的道德责任。科学家们不再能够讲:我的工作就只是研究和发明,至于其应用所造成的道德后果,是政治家和管理者应该负责的,除了科学本身一切,我并不需要做什么。科学家们要对他们的研究、发明和创造的工作负起相当的道德甚至法律责任。 对于飞速发展的人工智能技术,对我们人类社会的影响也是越来越大。就人工智能技术可能带来的消极后果而言,科学家们要从下面三方面做出表率。首先,科学家能够预测科学结果的社会和政治影响比任何
9、人更科学,由于他们有一个特殊的知识。他们有责任向公众和政界讲明这些结果。这是一种社会责任。其次,由于科学家的社会地位对公众具有特殊的重要性,所以他们能够在一定程度上介入并影响到政治家的决策。因而,这一领域的科学家对人工智能的应用具有一定的社会责任感。例如在一些推理技术对社会的影响,科学家们对不唇服务的后果的闲话。最后,当人工智能的某些项目对人类有害时,科学家们在一定程度上是有权利参加或退出这个项目的。在这里他们不能不作出道德的判定和道德的决策。联合国教科文组织在(关于科学研究着地位的建议中就明确规定: 科学研究者在机构的支持下履行如下和享有如下权利 对于某些项目在人性、社会或生态方面的价值自由
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 文化交流
限制150内