人工智能(AI)能否有人格意识”伦理界定仍需明确

2022-06-20

       业界最新一波对AI意识觉醒的广泛讨论,是由一位名叫布雷克·莱莫伊(Blake Lemoine)的谷歌员工引起的。布雷克在谷歌AI伦理部门工作,其工作职责是测试谷歌的聊天机器人LaMDA是否会在和人类沟通时产生歧视性语言或仇恨言论。6月11日,布雷克公开曝光了一份长达21页、主题为“LaMDA是有意识的吗?”的文件,该文件中详细记述了近大半年以来与LaMDA的聊天记录,布雷克认为LaMDA已产生意识,拥有七八岁小孩的智商。
 
       一石惊起千层浪。对于布雷克的论点,AI领域的多名专家公开进行了驳斥与否定,尤其是纽约大学认知科学家加里·马库斯将其称为“高跷上的胡说八道”。记者采访了数名AI领域的中国专家及AI企业的相关人士,大多数受访者同样表达了怀疑或否定的看法。
 
MRO工业品
 
        事实上,本报记者注意到,在谷歌LaMDA之前,其他用于人工智能对话领域的语言模型也曾引起过关于道德伦理、人格意识等方面的争议。就在今年2月时,Open AI首席科学家萨茨克维尔在社交媒体上称“现在大型神经网络可能已经有微弱的自主意识了”,同样也引起了一片质疑。除此之外,有目共睹的是在2021年,包括中国在内的全球多个国家和地区加大了对AI算法治理的投入。如何规范、合理地开发AI技术、使用AI产品,以及如何应对人机交互过程中可能出现的社会问题,已成为人工智能快速发展过程中的一个全球性社会议题。
 
       尽管意识觉醒、独立思考的机器人经常出现在影视及文学作品中,但关于“人工智能(AI)能否有人格意识”这个问题,实际上已被物理学家、心理学家、计算机科学家争论了几十年,至今尚无定论。
 
        LaMDA有意识吗?
 
        LaMDA,是谷歌于2021年在I/O(输入/输出)开发者大会上推出的一款专门用于对话的语言模型,目前还未向大众消费者开放,主打能与人类进行符合逻辑常识的、高质量且安全的交谈,并且计划将其未来应用在谷歌搜索、语音助手等产品中。需要指出的是,LaMDA在预训练阶段,谷歌方面从公共对话数据和其他公共网页文档中收集并创建了一个具有1.56TB(万亿字节,计算机存储容量单位)的数据集,这相当于以往训练对话模型的单词量的近40倍。
 
        计算语言学家Emily M. Bender指出,人类学说话是跟着抚养者一步步学起,而AI学会的只是数据“灌”出来的完形填空和“语料连连看”。“人类现在有了无意识就能生成词句的机器,但人类要学会,停止幻想机器后面有个活着的灵魂。”
 
        2007年成立的中国人工智能企业思必驰相关人士向记者表示,在“可解释的AI”出现之前,一切外部观察到的现象都是不靠谱的。现在的AI都是基于大数据统计基础上的结果,并非无中生有就自己出现了,直白地讲就是人为训练的。此外,聊天机器人的判断自然有图灵测试,在图灵测试下的某次判断,可能会呈现出人格、情绪等特点,但并不等于具有独立意识,没有独立意识便谈不上人格。海银资本创始合伙人王煜全则表达了辩证的看法,他指出,一方面,“我们要看到人工智能技术确实很惊艳了,连计算机博士(指布雷克)都会被忽悠,说明AI未来会有很大的应用前景”,但另一方面,“我们不应该盲信,要看到当下人工智能的不足和短板,对于其可靠性、成熟度和应用的边界,要进行更严谨的研究和探讨”。
 
MRO工业品
 
        AI伦理仍在探索实践中
 
        所谓AI伦理,一般来说是指人们对如何规范、合理地开发AI技术、使用AI产品,以及如何应对人机交互过程中可能出现的社会问题的一种态度和价值观。具体来说包括AI的接受度、公平意识、安全意识以及道德等。围绕AI伦理的热点研究领域包括算法歧视、数据隐私、安全与责任、机器人与人的关系、科技贫困等。
 
        深度学习及其不可解释性成为AI带来的技术难题,特别是在图像、文本处理上,因“不透明的技术黑箱状态”,很难解释模型到底学习到了什么。在医疗等一些行业领域应用中,我们需要更高的可解释性和透明性,解释机器决策和预测的过程,以证实其可靠性,这意味着需要理解算法的机制。不幸的是,深度学习的“黑箱”本质并没有被解决。
 
        近几年来,国内外科技企业也纷纷提出或确立了自身的AI伦理原则,如谷歌于2018年6月提出AI应用的七项原则,包括对社会有益、避免制造或加强不公平偏见、对人负责、纳入隐私计算等。而同年5月,百度创始人李彦宏公开提出了AI伦理四原则——AI的最高原则是安全可控,AI的创新愿景是促进人类更平等地获取技术和能力,AI存在的价值是教人学习、让人成长,而非超越人、替代人,AI的终极理想是为人类带来更多的自由与可能。
 
        人工智能产生的问题反映的是人与人的利益矛盾未得到正确处理,亦或者是人工智能存在研发上的技术缺陷。人才是人工智能问题的根源。
 
        一、积极寻求人机协作。人和机器应该相互协作,各司其职。简单地说“机器不如人”或“人不如机器”是不合适的。人与机器应该是建立共同合作的体系,而不是相互竞争或走向对抗。
 
        二、通过数据了解人自身。最可怕的是,人工智能了解人类,人类却不了解自己。人类在享受人工智能所提供的一系列便利服务时,也应该通过人工智能来了解自己、审视自己。
 
        三、应该加强道德教育,完善人性。技术所引发的一系列问题,主要是人性的缺陷所引起的,所以必须要完善人性。人既是人工智能技术的发明者,又是技术的控制者和使用者。如今,人类面临着人工智能所带来的危机和风险,部分原因在于人性里的缺陷。
 
        深度科技研究院院长张孝荣指出,AI技术是一把双刃剑,用得好可以改善社会生活质量;用得不好,会大大影响人们的社会生活。未来需要进一步加强AI技术的应用管理,必须要将之纳入法律和道德伦理的轨道上运行。
 
 
 
 
 
 
广州市广镒机电有限公司
来源:中国经营报
 
声明:本网站发布的内容(图片、视频和文字)以原创、转载和分享网络内容为主,如果涉及侵权请尽快告知,我们将会在第 1 时间删除。文章观点不属于本网站立场,如需处理请联系客服。电话:020-62241120;邮箱:sales@guanyee.com。本站原创内容未经允许不得转载,或转载时需注明出处:广镒机电 人工智能(AI)能否有人格意识”伦理界定仍需明确

热门资讯

1华为HUAWEI进军智能汽车市场

华为HUAWEI与江淮合作的智选车品牌定为“傲界”,有三款大型车在研,覆盖轿车、SUV和MPV三大品类,首款车发布时间将提前至2024年Q4。

2我国多项交通重大工程加速推

新年伊始,我国多项交通重大工程加速推进。加快构建现代化高质量国家综合立体交通网,助力经济社会高质量发展。

3一批税费支持政策开始实施 助

今年1月1日起,一批涉及个人所得税、新能源汽车消费、科技自立自强等领域的税费支持政策开始实施

4马斯克“超级高铁”梦想破碎,H

马斯克超级高铁梦想破碎,Hyperloop One(前身为 Virgin Hyperloop)正在出售其资产、解雇剩余员工,并准备在 2023 年底前关闭。

5武汉全国科创高地加速打造

“留住大学生,才能留住未来。”为了扭转人才利用率低、人才外流严重的局面,从2017年开始,武汉启动百万大学生留汉创业就业工程:买房租房可打八折、落户仅靠一证、近500家企业带头落实大学生最低年薪标准……

6华为回应在剑桥建10亿英镑研

华为一位发言人对此表示,公司仍在评估该项目,“我们知道规划申请的状况,在疫情期间将其置于内部审查评估状态”。

7中国是全球芯片创业唯一乐土

美国打压中国芯片并不是为了芯片本身,而是因为这个地球上的国防、工业、社会生活越来越智能化,芯片工业对其它各个行业的战略支撑效用远非1985年时可比。

8台积电美国4nm芯片厂成本贵5

台积电此前在财报会议上表示,在美国建厂的成本大增主要跟基础设施有关,盖厂的成本比本土高出四五倍。

最新更新

社会百象

more