人工智能将夺走你的工作。
学生们让ChatGPT写他们的学期论文。
生成式人工智能将毁坏我们所了解的艺术。
自从OpenAI首次向世界展示了人工智能技术的先进程度以来,这些警告就一直在被提出。
如果想了解更严重的情况,你可能需要去找小说家或好莱坞,他们描绘了“奇点”灾难情景,机器威胁我们的生存。
AI安全中心发布了一份严肃的警告,以一句简短但严重的声明为形式。这份声明附带着350位AI专家和业界其他知名人士的签名。
“缓解人工智能带来的灭绝风险应该成为全球优先考虑的事项,与大流行病和核战争等其他社会规模风险同等重要。”
核战争?
灭绝?
这些术语对任何人来说都应该是令人震惊的,尤其是那些对人工智能的经验仅限于由聊天机器人构建其自身的支持证据和不能画手的图像生成器的人。
那么谁是提出这些警示的专家呢?
其中最著名的是OpenAI的首席执行官Sam Altman。他出人意料地出现在国会面前,呼吁对人工智能开发进行严格监管。
考虑到OpenAI负责开发ChatGPT——史上最迅速被采用的技术,这个举动令人意外。
该公司的首席技术官Mira Murati也在AI安全中心发布的简短声明中签名表示支持。
其他值得注意的名字包括:微软首席技术官Kevin Scott,谷歌AI高管Lila Ibrahim和Marian Rogers,以及前联合国代表Angela Kane。
仅仅几个月前,另一封公开信警告也发布了(尽管使用的措辞没有那么极端)。这封信得到了OpenAI联合创始人埃隆·马斯克的支持,呼吁在人工智能发展上暂停六个月,以便潜在的安全保障能够跟上技术的步伐。
这个最新的呼吁无疑是升级了,因为任何提到我们物种灭绝的事情都被认为是极其严重的。
这些专家究竟在要求什么?
将人工智能“作为全球优先事项”并不是一个具体的路线图。
一个公司,甚至一个国家,若在机器学习技术的发展上束缚自己,只会使他们在竞争中处于劣势,如果他们的竞争对手不跟随他们的步伐。
大多数人似乎都同意,人工智能的“猫已经出了袋”。
我们从Yoshua Bengio那里得到了关于这个新的谨慎信息的一些澄清。他是蒙特利尔学习算法研究所的创始人和科学主任,他的签名出现在关注的专家名单的前面。
在本周早些时候的一次采访中,Bengio谈到了他对过去几年发展速度的惊讶。他说,现在的“能力水平”是他原本预计要在二十年甚至五十年后才能达到的水平。
当被问及他是否认为机器达到人类智能水平会对人类构成风险时,他的回答是坚定的...
是的。
幸运的是,他对当前形式的人工智能到底让他感到害怕的地方提供了洞察力。
Yoshua Bengio最担心的是像ChatGPT这样的大型语言模型(LLM)聊天机器人能够在在线对话中模仿(甚至可能超越)人类。
Bengio提到这些聊天机器人时说道:
“它们可以以比我们目前在社交媒体上所见到的更加强大的方式传播虚假信息。”
根据Bengio的说法,识别和揭示人工智能机器人是解决这个问题最重要且最有效的方法。
“在短期内,我们需要做的一件简单但重要的事情是,让冒充人类变得非常困难、非法化,并加以严厉惩罚。因此,当用户与人工智能进行互动时,必须非常清楚它是一个人工智能。实际上,我们甚至应该知道它来自哪里,由哪家公司制造。因此,伪造人类的行为应该与伪造货币一样严重受罚。”
他继续表达了他对监管机构能否跟上人工智能技术发展速度来保护技术的担忧。
“我们不能等待几年”,Bengio表示,他指的是加拿大推出人工智能监管的努力,同时也表示在这个问题上,加拿大走在大多数国家的前面。
考虑到美国在建立监管方面仍处于早期阶段,这当然是一个令人担忧的问题。