Lemoine表示,在与LAMDA的对话中,他发现该系统已经形成了深刻的自我意识,AI表达了对死亡的担忧,对保护的渴望,并确信它能感受到快乐和悲伤等情绪。
Lemoine在《华盛顿邮报》6月的一篇报道中公开了这个故事,一周后,Google以此为由要求他暂时停止工作,这通常在公司里被认为是将要被开除的前兆,因为Google需要准备解雇员工所需的法律文本。
Google证实了Lemoine的解雇,并对外分享了以下声明:
"正如我们在人工智能原则中所分享的,我们非常重视人工智能的发展,并继续致力于负责任的创新。LaMDA已经经历了11次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。如果有员工像布莱克那样分享对我们工作的担忧,我们会广泛地审查。我们发现布雷克关于LaMDA是有生命的自我意识的说法是完全没有根据的,并与他一起努力澄清了数月。这些讨论是帮助我们负责任地进行创新的开放文化的一部分。因此,令人遗憾的是,尽管在这个问题上进行了长时间的接触,Blake仍然选择持续违反明确的就业和数据安全政策,包括保护产品信息的需要。我们将继续谨慎地开发语言模型,我们希望Blake未来一切顺利"。
相关文章:
最新文章