plusresetminus
发布日期Tuesday 23 May 2023 - 05:45
故事代码 : 32389
科技

人工智能的政治议程是什么?

*圣地亚哥·扎巴拉 ; **克劳迪奥·加洛
人工智能将会给我们带来什么呢?谁将成功利用这项新技术呢?它不仅正在成为我们社会中的主导生产力——就像曾经的手推磨和蒸汽磨那样,而且正如我们不断在新闻中所看到的那样,它似乎正在“快速脱离我们的控制”?
人工智能的政治议程是什么?
卡尔·马克思曾经说过,“手推磨产生的是封建主的社会,蒸汽磨产生的是工业资本家的社会”。他是对的。纵观历史,我们已经一次又一次地看到技术发明如何决定主导的生产方式,以及存在于社会中的政治权威的类型。

人工智能是否会像许多人相信的那样,将会拥有自己的生命,并独自决定我们人类的历史进程?还是最终会成为另一项服务于特定议程,并使特定人群受益的技术发明?

最近,人工智能生成内容给我们制造了许多超现实主义的案例,例如,网上出现了对前一级方程式赛车世界冠军迈克尔·舒马赫进行的“采访”,而自2013年的一场严重滑雪事故以来,他便一直无法接受媒体采访。此外,网上还出现了美国前总统唐纳德·特朗普在纽约被捕的“照片”,另一方面,由OpenAI实验室开发的著名聊天机器人ChatGPT“撰写的”、看似真实的学生论文,也引起了知识分子、政治家和学者对这项全新技术可能会对我们的社会构成的危险的严重担忧。

今年3月,此类担忧促使苹果公司联合创始人史蒂夫·沃兹尼亚克、人工智能领域重量级人物约书亚·本吉奥、特斯拉以及推特的首席执行官埃隆·马斯克等人签署了一封公开信,指责各地的人工智能实验室“陷入了一场失控的竞赛之中,以开发和部署更强大的数字思维,而没有任何人——甚至是其创造者——能够理解、预测或者施以可靠控制”,这封信还呼吁人工智能开发人员暂停他们的工作。最近,被誉为“人工智能三大教父”之一的杰弗里·辛顿离开了谷歌,“以公开谈论人工智能的危险”,他还表示,至少在某种程度上,他对自己对该领域的贡献感到后悔。

我们承认,人工智能——就像所有定义时代的技术一样——会带来相当大的副作用和危险,但是与沃兹尼亚克、本吉奥、辛顿等人所持的观点相反,我们并不相信它可以在没有任何来自人类的输入或支持的情况下,自行决定历史进程。我们没有这样的担忧,因为我们知道,就像我们所有其他技术设备和系统的情况一样,我们的政治、社会和文化议程也内置于人工智能技术之中。正如哲学家唐娜·哈拉维所解释的那样,“技术并不是中立的。我们在我们制造的东西里面,而它也在我们里面。”

在我们进一步解释为什么我们不害怕所谓的“人工智能接管”之前,我们必须定义和解释人工智能究竟是什么,正如我们现在正在处理的那样。这是一项具有挑战性的任务,不仅是因为我们手头产品的复杂性,而且还因为媒体对人工智能的过度神话。

今天一直在向公众传达的信息是:拥有自我意识的机器即将出现,而我们的日常生活也很快就会像电影《2001:太空漫游》、《银翼杀手》和《黑客帝国》中出现的场景那样。

这是一种错误的叙述。毫无疑问,虽然我们正在建造功能更强大的计算机和计算器,但却没有迹象表明我们已经创造了——或者说接近于创造——一种能够真正进行“思考”的数字思维。

诺姆·乔姆斯基最近(与伊恩·罗伯茨、杰弗里·瓦图穆尔一起)在《纽约时报》的一篇文章中指出,“我们从语言学和知识哲学中了解到,像ChatGPT这样的机器学习程序,与人类推理和使用语言的方式截然不同。”尽管它对人类提出的各种问题给出了令人惊叹且信服的答案,但是ChatGPT是“一个用于模式匹配的日志统计引擎,它纳入了数百TB的数据,并在此基础上推断出最可能的对话回应或者最可能的科学答案”。模仿德国哲学家马丁·海德格尔——并且冒着重新点燃大陆哲学家与分析哲学家之间由来已久的战争的风​​险,我们可能会说,“人工智能并不思考。它只是在计算。”

费德里科·法金——“商用微处理器之父”(即神话般的Intel 4004),在其2022年出版的著作《Irriducibile》中明确阐释了这一点:“在机器代码‘知识’与人类语义知识之间存在着明显的区别。前者是可以复制和共享的客观信息,而后者是一种主观和私人的体验,发生在有意识的存在的亲密关系中。”

在解释最新的量子物理学理论时,法金似乎得出了一个与古代新柏拉图主义非常吻合的哲学结论——这一壮举可能会让他永远被视为科学界的异端,尽管他作为发明家已经取得了令人难以置信的成就。

但是这一切对我们的未来意味着什么呢?如果我们的超级智能“半人马”并不能真正地进行“思考”,并因此成为可以决定人类历史进程的独立力量,那么它究竟会为谁带来好处?又会将政治权力赋予谁呢?换句话说,它的决策会依据什么样的价值观呢?

乔姆斯基和他的同事向ChatGPT提出了一个类似的问题。

“作为人工智能,我没有道德信念或者作出道德判断的能力,所以,我不能被认为是不道德的或是道德的”,这个聊天机器人这样告诉他们,“我缺乏道德信仰,只是我作为机器学习模型的本质的结果。”

我们以前在哪里听说过这种立场?这难道不是惊人地类似于铁杆自由主义的道德中立观点吗?

自由主义渴望将所有的宗教、公民和政治价值观限制在私人领域,而在在16世纪和17世纪,这种渴望被证明是如此危险且具有破坏性。它希望社会的各个方面都以一种神秘的方式,受到一种特定的理性形式的调节,即市场。

人工智能似乎也在鼓吹同款神秘理性。事实上,它正在成为下一项全球“大创新”,并将抢走人类的大量工作岗位——使劳工、医生、律师、记者以及许多其他人变得多余。新机器人的道德价值观与市场相同。现在很难想象所有可能的发展,但是一个可怕的场景正在出现。

剑桥大学机器学习助理教授大卫·克鲁格最近在《新科学家》杂志上评论称,“基本上每个人工智能研究人员(包括我本人)都获得了大型科技公司的资助。在某个时候,就像我一样,社会可能不再会相信来自那些存在强烈利益冲突的人员的保证,而他们对有关人工智能的警告的无视,背叛的是一些想当然的看法,而不是好的反驳。”

如果社会反对人工智能及其推动者,那么它可能会证明马克思是错误的,并且阻止当前时代领先的技术发展至决定谁拥有政治权威的地步。

但就目前而言,人工智能似乎会继续存在。其政治议程与自由市场资本主义完全同步,其未公开的主要目标和意图,是撕裂任何形式的社会及社区团结。

人工智能的危险并不在于它是一种无法控制的数字智能,一种可以通过其自主生成的“虚假”图像、文章、新闻和历史来摧毁我们的自我意识和真相的智能。其中的危险事实上在于,这一不可否认的伟大发明似乎将其所有决定和行动,都基于驱动掠夺性资本主义的同一套具有破坏性的危险价值观。

*圣地亚哥·扎巴拉: 庞培法布拉大学哲学教授 圣地亚哥·扎巴拉是位于巴塞罗那的庞培法布拉大学ICREA哲学研究教授。


**克劳迪奥·加洛: 《新闻报》前外国编辑和伦敦记者 克劳迪奥·加洛是《新闻报》前外国编辑和伦敦记者。曾为《亚洲时报》

***本文仅表达作者个人观点

消息结束
16
发表评论
你的名字
您的电子邮件地址