2025-08-25 12:48来源:本站
人工智能时代已经开始,它带来了许多新的焦虑。为了确保人工智能只做人类想做的事,人们投入了大量的精力和金钱。但我们更应该害怕的是,人工智能会按照人类的意愿行事。真正的危险是我们自己。
这并不是行业正在努力解决的风险。今年2月,一家名为Synth Labs的公司成立,其明确目的是“人工智能对齐”,使其完全按照人类的意愿行事。它的投资者包括微软(Microsoft)旗下的M12,以及谷歌(Google)前首席执行官埃里克?施密特(Eric Schmidt)创立的First Start Ventures。ChatGPT的创造者OpenAI承诺将其20%的处理能力用于“超级校准”,这将“引导和控制比我们聪明得多的人工智能系统”。大型科技公司都参与其中。
由于人工智能技术的快速发展,这可能是一件好事。几乎所有关于风险的对话都与人工智能系统追求偏离其编程目标、不符合人类利益的潜在后果有关。每个人都可以理解人工智能的一致性和安全性,但这只是危险的一面。想象一下,如果人工智能真的做了人类想要的事情,会发生什么。
当然,“人类想要的”并不是一个庞然大物。不同的人想要不同的东西,对于什么是“更大的善”有无数的想法。我认为,如果人工智能与弗拉基米尔?普京(Vladimir Putin)或金正恩(Kim Jong Un)的理想世界愿景一致,我们大多数人都有理由感到担忧。
即使我们能让每个人都关注整个人类物种的福祉,我们也不太可能就这可能是什么样子达成一致。埃隆·马斯克(Elon Musk)在自己的社交媒体平台X上表示,他担心人工智能会推动“被迫的多样性”,而且过于“觉醒”。(此前,马斯克刚刚对OpenAI提起诉讼,称该公司没有兑现开发人工智能造福人类的承诺。)
有极端偏见的人可能真的认为杀死任何他们认为不正常的人是符合人类整体利益的。“与人类一致”的人工智能本质上就像设计它的人一样善良、邪恶、有建设性或危险。
这似乎就是谷歌人工智能开发部门DeepMind最近成立了一个内部组织的原因,该组织专注于人工智能安全,并防止不法分子操纵人工智能。但是,什么是“坏”是由这家特定公司(以及其他一些类似公司)的少数人来决定的,这是不理想的——他们有盲点,有个人和文化偏见。
潜在的问题不仅仅是人类伤害其他人类。历史上很多时候,对人类“有益”的东西是以牺牲其他有情众生为代价的。这就是今天的情况。
仅在美国,就有数十亿只动物在任何时候都受到囚禁、折磨和基本心理和生理需求的剥夺。整个物种都被征服和系统性屠杀,这样我们就可以吃煎蛋卷、汉堡和鞋子。
如果人工智能完全按照“我们”(编程系统的人)的意愿去做,那可能意味着更有效地实施这种大规模的残忍行为,规模更大,自动化程度更高,同情人类介入并标记任何特别可怕的事情的机会更少。
事实上,在工厂化养殖中,这种情况已经发生了,尽管规模比可能的要小得多。美国泰森食品公司、泰国CP食品公司和挪威Mowi公司等动物产品的主要生产商已经开始试验人工智能系统,旨在提高动物的生产和加工效率。这些系统正在接受测试,其中包括喂养动物、监测它们的生长、在它们身上留下印记,以及通过声音或电击与动物互动来控制它们的行为。
一个比让人工智能与人类的直接利益保持一致更好的目标是我所说的“感知联盟”——人工智能根据所有有情生物的利益行事,包括人类、所有其他动物,如果存在的话,还有感知的人工智能。换句话说,如果一个实体能够体验快乐或痛苦,那么人工智能系统在做出决策时就应该考虑到它的命运。
有些人会觉得这是一个激进的主张,因为对所有有知觉的生命有益的东西可能并不总是与对人类有益的东西一致。有时,甚至经常,它可能与人类想要的相反,或者对我们大多数人来说是最好的。这可能意味着,例如,人工智能消除动物园,破坏非必要的生态系统以减少野生动物的痛苦或禁止动物试验。
哲学家、1975年出版的里程碑式著作《动物解放》(Animal Liberation)的作者彼得?辛格(Peter Singer)最近在播客“All Thinks Considered”上表示,人工智能系统的最终目标和优先事项比与人类保持一致更重要。
辛格说:“真正的问题是,这个超级人工智能是否会仁慈,是否想要创造一个更美好的世界,即使我们不控制它,它仍然会创造一个更美好的世界,在这个世界上,我们的利益会得到考虑。”它们有时可能会被非人类动物的利益或人工智能的利益所压倒,但我认为这仍然是一个很好的结果。”
我同意辛格的观点。似乎我们能做的最安全、最富有同情心的事情就是考虑非人类有知觉的生命,即使这些实体的利益可能会与人类的最佳利益相冲突。在任何程度上,尤其是在这种极端情况下,去中心化人类都是一种挑战人类的想法。但是,如果我们要防止目前的物种歧视以新的可怕的方式扩散,这是必要的。
我们真正应该要求的是工程师在设计技术时扩大他们自己的同情心。当我们想到“安全”时,让我们想想“安全”对所有有情众生意味着什么,而不仅仅是人类。当我们的目标是让人工智能“仁慈”时,让我们确保这意味着对整个世界的仁慈,而不仅仅是生活在其中的单一物种。-洛杉矶时报/论坛报新闻服务
×