看到一条消息说,最近已经有超三千名海内外科技领袖联名呼吁停止超级人工智能开发,感觉有些意外。 联名活动由非营利组织未来生命研究所于10月22日发起,两天时间内就已经有3193人签名。其中包括人工智能先驱杰弗里·辛顿、苹果联合创始人史蒂夫·沃兹尼亚克等。中国的姚期智、张亚勤等著名学者也参与其中。 看来此事非同小可,不然的话不会有在这么短的时间内征集到这么多人的参与,而且很多都是这个领域内的超级大佬。他们这样做,肯定是经过慎重考虑之后才决定的。 超级智能是指在所有领域超越人类认知能力的人工智能系统,简单说来就是一个比人类还要聪明的人工智能技术或系统。人们担心这个超越人类智能的人工智能系统有可能会带来从经济崩溃到人类灭绝的风险。 这种担心2023年就已经出现了。当时非营利组织“人工智能安全中心”曾发布了一个简短声明称要降低AI可能带来的灭绝风险,不过当时没有太多人关注到这个声明。 仅仅两年之后,这个话题再度被提起,并且有如此多的业内顶尖专家对此表示关切,说明这个问题在许多人看来的确是有可能发生的,而且后果还会相当严重,甚至足以让人类毁灭。 我并不是AI专业人员,对此知之甚少。但我觉得人工智能再牛逼,不论它发展到什么时候,他也是人类的一个技术,人类既然可以发明它,创造它,当然可以拿捏它。目前对人类大脑的认知还有很大局限性,不可能开发出比自己认知更超前的电子大脑。AI永远不可能有人类一样的脑回路,只能无限接近,不可能超越。 或许正如网友所说,因为中国在人工智能领先了,美西方又放出来“科技威胁论”,这是他们的常用手段,其用心相当险恶。对此完全可以不加以理会,只需按照我们的计划推进AI技术就好。
