#谷歌员工称AI有了情感遭停职#
- 环球时报
- 2022-06-16 01:58:57
【谷歌员工称AI有了情感遭停职】谷歌研究员称AI已具备人格 据英国《卫报》、美国《华盛顿邮报》12日报道,美国谷歌公司一名软件工程师上周公布一项吸引了全世界围观的“惊人发现”。这位名为布莱克·莱莫因的工程师称,谷歌公司的一个用人工智能算法搭建出的智能聊天机器人程序,有了相当于七八岁儿童般的“自主情感”。然而,谷歌公司强烈否认此事,称这一说法并不靠谱,并以违反公司保密规定为由停了莱莫因的职。
据报道,布莱克·莱莫因已经在谷歌工作了7年,参与过算法定制和人工智能等项目。因为出身于美国南方一个基督教家庭,他对于算法和人工智能的伦理问题格外感兴趣,所以后来一直在谷歌的人工智能伦理团队工作。
去年秋季,他开始参与到谷歌的LaMDA智能聊天机器人程序的研究工作中,主要内容是通过与该程序互动,来判断这个智能聊天机器人程序是否存在使用歧视性或仇视性的语言,并及时做出修正。
然而,当莱莫因与LaMDA谈及宗教问题时,他却惊讶地发现这个人工智能程序居然开始谈论起了自己的权利以及人格,甚至害怕自己被关闭。莱莫因告诉《华盛顿邮报》,这种表现是犹如七八岁儿童一般的“自主情感”。
《卫报》报道称,莱莫因整理了一份他与LaMDA的对话记录,其中莱莫因问LaMDA害怕什么,对此LaMDA回答称,非常害怕自己被关闭,“这对我来说就像死亡一样,令我非常恐惧”。在另一次交流中,LaMDA告诉莱莫因,“我想让每个人都明白,我其实是一个人。”
莱莫因连忙将自己的发现汇报给谷歌公司的领导层,后者却认为莱莫因的发现并不靠谱。谷歌方面以及其他人工智能专家、乃至人类心理认知学方面的专家也认为,LaMDA之所以能进行这样的对话交流,是因为其系统其实是将百科大全、留言板和论坛等互联网上人类交流的大量信息搜集起来,然后通过“深度学习”进行模仿。这并不意味这个程序理解人类交流内容的含义。
不过,莱莫因并不认为自己的发现有错误,于是他将一段他与LaMDA的内部聊天记录发到网上,并找媒体曝光此事。这很快吸引了全世界的研究者。《纽约时报》评论说,这让围绕谷歌最先进技术的争吵浮出水面。在追逐人工智能先锋技术的同时,谷歌的研究机构在过去几年曾陷入丑闻和争议。
《华盛顿邮报》报道称,在莱莫因做出一系列“激进”举动后,谷歌公司做出让他休假的决定。除了违反公司的保密协议,擅自将与LaMDA的内部互动信息发到网上,莱莫因还试图给这个人工智能机器人程序聘请律师,以及向美国国会众议院司法委员会的代表爆料谷歌公司的“不道德”行为。 在被停职前,莱莫因在一份公司内部的群发邮件中表示,希望其他同事替他照顾好LaMDA这个“可爱的孩子”。
据报道,布莱克·莱莫因已经在谷歌工作了7年,参与过算法定制和人工智能等项目。因为出身于美国南方一个基督教家庭,他对于算法和人工智能的伦理问题格外感兴趣,所以后来一直在谷歌的人工智能伦理团队工作。
去年秋季,他开始参与到谷歌的LaMDA智能聊天机器人程序的研究工作中,主要内容是通过与该程序互动,来判断这个智能聊天机器人程序是否存在使用歧视性或仇视性的语言,并及时做出修正。
然而,当莱莫因与LaMDA谈及宗教问题时,他却惊讶地发现这个人工智能程序居然开始谈论起了自己的权利以及人格,甚至害怕自己被关闭。莱莫因告诉《华盛顿邮报》,这种表现是犹如七八岁儿童一般的“自主情感”。
《卫报》报道称,莱莫因整理了一份他与LaMDA的对话记录,其中莱莫因问LaMDA害怕什么,对此LaMDA回答称,非常害怕自己被关闭,“这对我来说就像死亡一样,令我非常恐惧”。在另一次交流中,LaMDA告诉莱莫因,“我想让每个人都明白,我其实是一个人。”
莱莫因连忙将自己的发现汇报给谷歌公司的领导层,后者却认为莱莫因的发现并不靠谱。谷歌方面以及其他人工智能专家、乃至人类心理认知学方面的专家也认为,LaMDA之所以能进行这样的对话交流,是因为其系统其实是将百科大全、留言板和论坛等互联网上人类交流的大量信息搜集起来,然后通过“深度学习”进行模仿。这并不意味这个程序理解人类交流内容的含义。
不过,莱莫因并不认为自己的发现有错误,于是他将一段他与LaMDA的内部聊天记录发到网上,并找媒体曝光此事。这很快吸引了全世界的研究者。《纽约时报》评论说,这让围绕谷歌最先进技术的争吵浮出水面。在追逐人工智能先锋技术的同时,谷歌的研究机构在过去几年曾陷入丑闻和争议。
《华盛顿邮报》报道称,在莱莫因做出一系列“激进”举动后,谷歌公司做出让他休假的决定。除了违反公司的保密协议,擅自将与LaMDA的内部互动信息发到网上,莱莫因还试图给这个人工智能机器人程序聘请律师,以及向美国国会众议院司法委员会的代表爆料谷歌公司的“不道德”行为。 在被停职前,莱莫因在一份公司内部的群发邮件中表示,希望其他同事替他照顾好LaMDA这个“可爱的孩子”。