TL;DR
· Amjad 认为中本聪可能是一名叫 Paul Le Roux 的津巴布韦黑客,他创造比特币是为了存储犯罪所得。
· Amjad Masad 认为 AI 应该是人类能力的延伸,而非替代。他批评了将 AI 视为威胁的观点,认为这源于对人性的失望。他强调人类直觉和理性思维的重要性,质疑将大脑简单等同于计算机的观点。
· Amjad 描述了硅谷存在一些类似**的群体,如「理性主义者」和「有效利他主义者」。这些群体对 AI 的发展有重大影响,但他们的一些理念和做法值得警惕。他认为这些群体的想法源于对人性的不满和傲慢。
· Amjad 认为 AI 在教育、医疗诊断等领域有巨大潜力。他鼓励人们学习编程以利用 AI,但也警告了 AI 可能被滥用于监控和军事目的。他强调开源 AI 的重要性,以防止技术被垄断。
· 硅谷正从一党独大的民主党倾向, 逐渐出现更多支持共和党的声音。一些知名科技人士如 Marc Andreessen 开始公开支持特朗普。Amjad 认为这种变化部分源于对科技监管的担忧,以及像 David Sacks 这样的人物的影响。
Tucker:你们看起来好像直接参与了 AI 的发展,是这个生态系统的一部分。
Amjad Masad:是的,我们从中受益匪浅。当它开始发生时,很多人都感到惊讶,但我们早就预见到了。
Tucker:你预见到了 AI 的发展。
Amjad Masad:是的,我预见到了。这次 AI 浪潮让很多人措手不及。ChatGPT 在 2022 年 11 月发布,许多人都惊呆了,突然之间,电脑能和我对话了。
Tucker:但 AI 根本没达到那个程度。
Amjad Masad:Paul Graham 是我的好友和导师,他是硅谷的重要人物,也是位作家,写了很多文章。他讨厌 AI,认为它让人们写得更差、思考得更差。
Tucker:更差,或者根本不思考,就像 iPhone、Wikipedia 和 Google 所带来的影响一样。
Amjad Masad:我们刚才还在讨论这个。iPhone 和 iPad 让任何人都能使用计算机,但也使得没人需要学习编程。计算机的最初愿景是赋予我们超能力。DARPA 负责人 Jake Licklider 在互联网发展期间写了一篇名为《人机共生》的文章。他谈到计算机如何成为我们的延伸,帮助我们成长。这是计算机智能(高速运算)和人类智能(直觉)的结合。
Tucker:没错。
Amjad Masad:但自那以后,关于计算的共识发生了变化,人们害怕 AI 会取代我们,认为计算机和计算是一种威胁,因为它们直接与人类竞争。这不是我所持的信念,我认为它们是我们的延伸。我认为人们学习编程,这正是我们 Replit 的核心使命之一,它能赋予你超能力。而当你只是点按时,你只是一个消费者,而不是软件的生产者。我希望更多的人成为软件的生产者。Douglas Rushkoff 写了一本书,叫《编程或被编程》,如果你不是在编程,那就是有人在编程你。这些算法和社交媒体正在编程我们。
Tucker:对我来说学习编程已经太晚了吗?
Amjad Masad:我不这么认为。
Tucker:我连支票簿都平衡不了,假设还有支票簿的话。回到你刚才提到的一点,最初 DARPA 的愿景是机器做数学运算,人类做直觉判断。我想知道,随着机器越来越多地嵌入我们的生活,直觉是否正在消亡,或者人们是否不再信任自己的直觉。在过去几年里,我经常看到这样的情况:明明有一些非常显而易见的事情发生了,人们却说,「我可以承认并遵循我眼睛看到的和直觉告诉我的,但数据告诉我的却是另一回事。」我的优势是我与自然界非常接近,我相信自己的直觉。所以我在想,这是否是技术进步的结果。
Amjad Masad:我不认为这是技术进步固有的结果,这更多是一种文化问题。计算被视为人类的替代品而不是延伸。伯特兰·罗素写过一本关于数学历史和哲学的书,追溯到毕达哥拉斯等古代人物。从他的写作中可以看出,他对直觉在科学和数学中发挥的重要作用感到惊讶。而今天的文化是「你必须把直觉放在一边」。
Tucker:没错。
Amjad Masad:人们认为你有偏见,你的直觉是种族主义的,诸如此类。你必须成为一张白纸,只相信数据。但数据其实可以被解读成许多不同的含义。
Tucker:我能问个完全不相关的问题吗?我刚刚想到,你是怎么变得这么博学的?你在约旦长大,说阿拉伯语,来自一个流离失所的巴勒斯坦家庭。你来美国还没多久,英语不是你的母语。你是怎么读伯特兰·罗素的?你接受了什么样的教育?约旦的每个巴勒斯坦家庭都受过这么好的教育吗?
Amjad Masad:巴勒斯坦侨民普遍受过良好教育。我们这一代人在硅谷开始崭露头角,很多 C 级高管和副总裁级别的管理者都有巴勒斯坦血统,尽管有些人因为偏见和歧视而不愿公开。
Tucker:他们不说自己是巴勒斯坦人。
Amjad Masad:是的,他们有些人是基督徒,特别是那些基督徒,比较容易融入。他们中有很多人在硅谷工作。
Tucker:但你是怎么读到读伯特兰·罗素的?我猜你是用英语读的。你是怎么学会的?你不是在英语国家长大的。
Amjad Masad:约旦某种程度上也算是讲英语的国家。
Tucker:真的吗?
Amjad Masad:约旦曾是英国的殖民地。我记得独立日大概是在 50 年代或 60 年代。在大英帝国的殖民历史中,约旦沦为殖民地的时间相对较晚。所以当时英国在约旦有很大的影响。我父亲是政府工程师,收入不高,所以我们过着相对简单的生活,有点像中下阶层。但他非常重视教育,把我们送到了私立学校。在这些私立学校里,我们学习的是英国的文凭体系,比如 IGCSE 和 A-levels,你知道这些吗?
Tucker:我完全不了解这些。
Amjad Masad:是的,这是英国殖民主义的遗产之一——教育体系国际化了。我认为这是件好事。
Tucker:到处都有英国学校。
Amjad Masad:对,到处都是。这是很好的教育体系,给学生很大自由去选择感兴趣的科目。我学了很多数学和物理,也学了一些奇怪的东西,比如儿童发展。现在有了孩子,我还在用那些知识。
Tucker:在高中学这些?
Amjad Masad:是的,高中。我非常喜欢。
Tucker:这跟民权运动有什么关系?
Amjad Masad:什么意思?
Tucker:在美国学校里,学生花 16 年时间学习民权运动。人人都知道 Edmund Pettus 桥,但其他知识却知之甚少。
Amjad Masad:哦,天哪,我的孩子不会这样。
Tucker:太有趣了。你什么时候来到美国的?
Amjad Masad:2012 年。
Tucker:现在你拥有一家十亿美元的公司。这很了不起。
Amjad Masad:美国真是太棒了。我爱这个国家,它给了我们很多机会。我喜欢这里的普通人。我刚和司机聊天,她说很抱歉不知道 Tucker Carlson 是谁。我说这很好,说明你只是在过自己的生活。她说是啊,我有孩子、有鸡,很满足。我觉得这很棒。
Tucker:这意味着她很快乐。
Amjad Masad:是的,确实如此。
Tucker:抱歉我一直岔开话题。你提到那些书,而你甚至不是美国人,太了不起了。回到直觉的问题,你不认为这是必然的吗?换句话说,如果我的生活被手机、电脑和各种电子设备中的技术所主导,你不觉得这会让我更信任机器而不是自己的直觉吗?
Amjad Masad:你可以选择这样做。很多人被引导去这么做。但最终,你会失去很多自由。不仅是我这么说,很早就有黑客和计算机科学家开始敲响警钟,警告事物发展的趋势:更多中心化、市场竞争减少。你有一个全球性的社交网络,而不是多个网络。现在情况好一些了。很多人开始了加密货币运动。我知道你最近参加了比特币大会,告诉他们 CIA 创造了比特币,他们在 Twitter 上很生气。
Tucker:我不知道,但除非你能告诉我谁是中本聪,否则我就有疑问。
Amjad Masad:其实我对中本聪的身份有自己的看法,但这是另一个话题。
Tucker:不,停下,现在告诉我,谁是中本聪?
Amjad Masad:有一个人叫 Paul Le Roux。
Tucker:顺便说一下,对于不知道中本聪是谁的观众来说,这是我们用来指代比特币创造者的化名,但我们不知道他是谁。
Amjad Masad:让人不可思议的是,这个东西被创造出来,我们却不知道是谁创造的。他从未动用过那些钱。也许有一些活动,但有数千亿美元被锁在那里。我们不知道这个人是谁,这些钱也没有兑现,非常疯狂。
Tucker:神奇。所以 Paul Le Roux 是谁?
Amjad Masad:Paul 是罗得西亚(现在的津巴布韦)的一名密码黑客。他创造了一个叫「大众加密」(E4M)的东西。顺便说一下,我觉得斯诺登在他的黑客行动中使用了 E4M。Paul 是最早让密码学变得更易于普通人使用的人之一。但后来他成了罪犯。他在马尼拉成为犯罪头目,几乎控制了整个城市,收买了所有警察。他从犯罪活动中赚了很多钱,绰号叫「Toshi」,有很多间接证据表明他可能是中本聪。我有种感觉,他赚了太多钱,不知道怎么处理,于是创建了比特币来存储这些现金。在中本聪消失的同时,他也入狱了。他最近被判 20 到 25 年监禁。法官问他如果出狱会做什么,他说会制造一个异步芯片来挖比特币。这只是我的看法,不一定对。
Tucker:所以他目前在监狱里?
Amjad Masad:是的,他现在在监狱里。
Tucker:是在美国还是菲律宾?
Amjad Masad:我想是在美国,因为他的犯罪活动主要发生在这里。他基本上是在网上卖**。
Tucker:我们应该去监狱看他。
Amjad Masad:是的,可以去看看。
Tucker:抱歉,我只是忍不住想要问清楚。我们继续谈 AI 吧,你是 AI 生态系统的一部分,你不认为它是威胁,对吗?
Amjad Masad:不,我完全不认为它是威胁。我听过你在 Joe Rogan 播客上说要炸掉数据中心之类的话。
Tucker:我有点过于兴奋了,基于很少的信息就下结论。
Amjad Masad:嗯,那你告诉我,你对 AI 威胁的理论是什么?
Tucker:我一直想成为一个坦诚承认自己局限性和无知的人。在这个话题上,我确实很无知,但我读过很多相关内容,包括大部分警告性的文章。你也知道,人们担心机器变得如此强大以至于获得某种自主性。虽然它们被设计来服务我们,但最终却统治了我们。你知道,我对 Ted Kaczynski 的著作很感兴趣。他写的两本书,当然我要仪式性地说我完全反对邮包炸弹或任何形式的暴力。
注:Ted Kaczynski 是一位曾在加州大学伯克利分校任教的数学天才,因对现代工业社会和技术的强烈反对而成为「大学航空炸弹客」(Unabomber),在 1978 年至 1995 年间通过邮寄炸弹造成 3 人死亡和 23 人受伤。
但 Ted Kaczynski 对技术有很多引人深思的见解。这就像有了仆人一样,人们都想要仆人。但事实是,他们是来服务你的,但你最终反而在服务他们。这就是人们的担忧。我不想成为机器的奴隶,比我现在已经成为的更甚。就这么简单。当然还有其他方面,你比我了解得多,你就在那个圈子里。但是,这就是我的担忧。
Amjad Masad:这确实是个很有道理的担忧。我想把存在主义威胁与我们被机器奴隶的担忧区分开来。Ted Kaczynski 对技术的批评实际上是最有力的之一。
Tucker:我希望他没有**,因为我反对**。我认为这产生了与他预期相反的效果。他这么做是为了引起人们对他观点的关注,但结果却模糊了焦点。但我真的希望每个美国人都能读读他的书,不仅是他的宣言,还有他在监狱里写的书,因为它们至少很有启发性,非常重要。
Amjad Masad:是的。简单来说, 他提出了一个叫「权力过程」的概念,他认为这是人类幸福的内在要素。为生存而奋斗,经历人生各个阶段,从孩童到成年,结婚生子,然后成为长者,最后死去。他认为现代技术打断了这个过程,使人们变得痛苦。
Tucker:你怎么知道这些的?
Amjad Masad:我读过这些书,我非常好奇。我喜欢阅读,没有心理上的自我审查。我喜欢探索一切。
Tucker:你觉得来自另一个国家帮助你保持这种好奇心吗?
Amjad Masad:是的,我的童年也使我与众不同。我有红头发,我的家族中有一半人都是红发。这种与众不同让我习惯了不符合主流,我也因此不担心遵从社会规范。对计算机的兴趣和技术能力让我在生活中走得更远。我对从众和盲从几乎有厌恶感。
Tucker:我完全同意。我有类似的童年经历。
Kaczynski 的观点是,奋斗不仅是人类固有的状态,也是你作为一个人进化的重要部分。而技术打断了这一过程,我觉得他说得很有道理。
Amjad Masad:是的,我作为技术专家也很难反驳这一点。就像我说的,这是对技术最有力的批评之一,我们可以花整期节目来深入探讨。我认为分歧点在于,我们希望技术是赋能的工具,而不是仅仅替代我们。在 Replit,我们致力于赋能人们学习编程、创建创业公司、成为企业家。我认为在这个世界上,你必须创造自己的权力过程,必须经历奋斗。这也是为什么我反对很多技术专家所谈论的 UBI(全民基本收入),因为这违背了人性。
Tucker:这是要毁掉所有人,把他们赶出门外。
Amjad Masad:是的。所以我不认为技术本质上与权力过程相冲突。我们可以继续讨论存在主义威胁。
Tucker:这就是现状。我有点被说服了,对我来说是有道理的。我本来就比较倾向于关注威胁,像我这样性格的人总是在寻找即将到来的大坏事,比如小行星撞击、核战争或 AI 奴役。但我知道一些非常聪明的人,他们更接近 AI 开发的核心,也有这些担忧。我认为公众中也有很多人有这些担忧。在征求你对此更有见地的看法之前,我想说的最后一点是,关于 AI 的好处的讨论非常少。相反,很多人都在说如果我们不做,中国就会做。我认为这可能是真的。但为什么我应该对此感到兴奋呢?对我来说有什么好处?通常新技术出现时,人们会说「这将会很棒!你再也不用做某些事了」。但关于 AI,我没有听到任何这样的说法。
Amjad Masad:这是一个非常敏锐的观察。我会告诉你为什么,但这需要一个稍长的故事。我认为有一个有组织的努力在试图让人们害怕 AI。
Tucker:有组织的?
Amjad Masad:是的,有组织的。这要从 90 年代的一个邮件列表说起,叫做「The Extropians」的超人类主义邮件列表。他们相信「奇点」。奇点是指 AI 或技术整体进步如此之快以至于你无法预测会发生什么的时刻。它是自我进化的,所有的赌注都无效了。我们正在进入一个你无法预测的新世界。
Tucker:技术无法被控制的世界。
Amjad Masad:技术无法被控制,它将重塑一切。那些人认为这是件好事,因为现在的世界太糟糕了。我们不完美、不道德、各种不理性。所以他们真的希望奇点发生。有个叫 Eliezer Yudkowsky 的年轻人在这个列表上声称他可以写出这样的 AI。他写了很长的文章讲述如何构建这个 AI,但可疑的是他从未真正发布过代码,全都只是关于他将如何构建 AI 的散文。无论如何,他成功地筹到了资金。他们创立了一个叫「奇点研究所」的机构。很多对未来感到兴奋的人投资了,最著名的是 Peter Thiel。他花了几年时间试图构建 AI,再次强调,从未发布过代码,从未发布过任何真正的进展。然后他得出结论说,不仅无法构建 AI,而且如果你构建了它,它会杀死所有人。所以他从乐观主义者转变为认为 AI 肯定会杀死所有人。
Eliezer Yudkowsky
然后他说,我之所以犯这个错误是因为我不理性。要让人们理解我差点杀死所有人,就要让他们变得理性。于是他创建了一个叫「Less Wrong」的博客。这个博客引导你通过步骤变得更理性:审视你的偏见,检查自己,冥想你做过的不理性决定并试图纠正它们。然后他们创建了一个叫「高级理性中心」(CFAR)的机构,开始举办关于理性的研讨会。
Tucker:关于理性的强化训练班是什么样的?
Amjad Masad:我从未参加过。但我猜想他们会讨论偏见之类的东西。但他们也有一些奇怪的做法,比如一种叫「调试」的类似斗争会的活动。很多人写博客说这很令人羞辱,甚至导致一些人产生精神病。2017 年,那个社区出现了集体精神病,很多人都有点疯狂。这些都记录在互联网上。
Tucker:调试。所以这就像你典型的**技巧。你必须剥光自己,就像山达基教的听析(Auditing)一样。这在**中很常见。这就是你所描述的吗?
Amjad Masad:是的,这是我在那些描述中读到的。他们会坐下来,像听析一样审查你的思想,告诉你哪里错了。这常常给年轻人带来巨大的压力。很多人谈到加入那个社区如何给他们带来极大的痛苦。这个社区的一些分支甚至出现了自杀和谋杀等非常黑暗的事件。另一个问题是,他们教你理性思维,并把你招募到高风险的任务中,因为他们认为自己是理性的,他们的小组都是理性的。我们学会了理性的艺术,并且一致认为 AI 会杀死所有人。因此,这个群体之外的每个人都是错的,我们必须保护他们免受 AI 的危害。但他们也相信其他一些事情,比如他们认为多元恋爱(Polyamory)是理性的。
Tucker:多元恋爱?
Amjad Masad:是的,基本上就是可以和多个伴侣发生性关系。
Tucker:但他们认为这是理性的?我的意思是,如果你是男人,想和更多不同的女人发生关系,这当然是一种自然欲望。但在什么意义上说这是理性的呢?你从未见过幸福的长期多元恋爱关系。我认识很多这样的人,一个也没有。所以这可能是自私的。
Amjad Masad:你认为这是为了招募更多易受影响的人加入他们的组织?
Tucker:是的,还有他们性感的女朋友。
Amjad Masad:没错。所以这被认为是理性的。他们说服彼此接受所有这些**般的行为。疯狂的是,这个群体最终变得非常有影响力。因为他们招募了很多对 AI 感兴趣的人,而 AI 实验室和创办这些公司的人都在读这些东西。比如 Elon Musk 就广为人知地读了很多 Nick Bostrom 的作品,后者是理性主义社区的一个相关人物。他是最初邮件列表的一员。我想他会称自己为理性社区的一部分。他写了一本关于 AI 如何会杀死所有人的书。我认为他最近缓和了观点,但最初他是敲响警钟的人之一。OpenAI 的成立就基于很多这样的恐惧,比如 Elon 担心 AI 会杀死所有人。他担心谷歌会这么做。
我不认为 OpenAI 的每个人都真的相信这一点。但一些最初的创立故事是这样的。他们从那个社区招募人才。以至于当 Sam Altman 最近被解雇时,解雇他的人就来自那个社区。是一个从有效利他主义开始的人,而有效利他主义是那个社区的另一个分支。所以 AI 实验室在很多方面与这个社区有千丝万缕的联系。最终他们借用了很多社区的说法。但顺便说一句,现在很多这些公司都是很棒的公司。我认为他们正在清理门户。
Tucker:但根据你的描述,这听起来确实像是一个**。我的意思是,它具有**的特征。我们能更深入地探讨一下他们的信仰吗?你说他们是超人类主义者。那是什么?
Amjad Masad:我认为他们只是对人性不满意。对我们目前的构造方式不满意。他们认为我们不理性、不道德、各种不合理。所以他们渴望一个我们能通过改造自己而变得更理性、更有道德的世界,要么通过芯片与 AI 融合,要么改造我们的身体。通过改造和与机器融合来解决他们认为人类存在的根本问题。
Tucker:这太有趣了,同时又如此浅薄和愚蠢。我认识的那些人中很多其实并不聪明,因为最好的事情。我是说,理性很重要,我们应该理性,在我看来,这是上帝赐予我们的。不理性确实是不好的。然而,人类最好的品质和冲动并不是理性的。我认为无私地给予他人、花大量时间帮助别人或爱别人,这些行为都没有理性的解释。与别人的漂亮女友上床,我猜这可以被认为是理性的,但实际上这是我们最低级的冲动。
Amjad Masad:等等,你还没听说过「有效利他主义」呢。他们认为你刚才提到的我们的自然冲动确实是不理性的。有个叫 Peter Singer 的澳大利亚哲学家……
Tucker:就是那个支持杀婴的家伙。是的,他太有道德了,支持杀死儿童。
注:Singer 认为道德决策应基于减少痛苦和增加幸福的原则,而不是简单地根据物种或个体的身份。例如,他在讨论严重基因缺陷的胚胎时,认为在某些情况下终止其生命可能是道德上可以接受的,因为这样可以减少痛苦和资源浪费。
Amjad Masad:他们的哲学是功利主义。功利主义认为你可以计算道德。当你开始应用它时,就会进入非常奇怪的领域。比如有一些思想实验,如果医院里有两个病人需要器官移植,而另一个来做常规检查的人恰好有合适的器官。按功利主义的逻辑,你应该杀死那个健康的人,取出他的器官给另外两个病人。我不认为人们真的相信这一点,但这是他们理论的逻辑结果。
这种结论源于一个核心信念——他们认为自己是上帝。而普通人会意识到,虽然杀一个人救更多人在数学上说得通,但我没有权力这样做,因为我不是创造生命的上帝,我只是个无法预知未来的普通人。所有这些结论都源于人们错误地认为自己是神。
Tucker:我同意。我认为这反映了他们对人性的深深失望。他们对人性的缺陷感到失望。从某种程度上说,我们当然应该变得更好。但这种态度我们过去称之为「判断」,而现在我们不被允许这样做了。实际上,他们是在说「你很糟糕」,而从这里很容易就发展到「你应该被杀死」。这完全缺乏爱。相比之下,一个正常人、一个有爱心的人会说:「你有缺点,我也有缺点,但我还是爱你,你也爱我,我感激你的爱。」
Amjad Masad:没错。不过他们会说:「你很糟糕,来加入我们的艺术社区吧,和我们发生性关系吧。」
Tucker:我想澄清一下,这些人不只是公司里的普通员工,对吗?
Amjad Masad:你听说过 SBF 和 FTX 吧?他们有一个内部小团体,彼此之间都在发生性关系。
已入狱的 FTX 创始人 SBF 是 Singer 有效利他主义思想的追随者
Tucker:考虑到他们中一些人的长相,这可不是理性的行为。
Amjad Masad:哈哈,确实,没有正常人会那样做。
Tucker:确实如此。
Amjad Masad:是啊。你知道更令人不安的是,他们哲学中还有一个叫做「长期主义」的伦理观念。这来自于理性主义分支中的有效利他主义。
Tucker:长期主义?
Amjad Masad:对,长期主义。他们认为,如果我们采取正确的步骤,未来会有万亿人类,或者说万亿个思维。这些可能不是人类,可能是 AI,但它们都是能够体验效用、体验美好事物的思维。如果你是功利主义者,你必须对此给予很大的权重。即使你对未来的价值有所折扣,但考虑到数量巨大,最终仍会被赋予很高的价值。
所以这些社群最终都专注于 AI 安全,因为他们认为 AI 可能会杀死所有人。我们待会儿可以讨论他们的论点。有效利他主义者和理性主义社群的所有分支都关注 AI 安全,因为他们认为这是最重要的事情——我们希望未来有万亿人口过上美好生活。
但是,当你给予如此高的价值时,这就变成了一种帕斯卡赌注。你可以用这个理由来为任何事辩护,包括**,包括做非常糟糕的事情。如果你真的相信 AI 会杀死所有人,而未来蕴含的价值远超当今任何活着的人的价值,你可能会为任何行为辩护。因此,这是一个非常危险的框架。
Tucker:但这与每一个种族灭绝运动的框架是一样的。从法国大革命到现在,都是用美好的未来来为血腥的现在辩护。
Amjad Masad:我并不是在指控他们有种族灭绝的意图。我不了解他们,但这些想法很容易导致集中营的出现。我们只是在泛泛而谈。如果他们只是一些无关紧要的伯克利大学生,对世界没有实际影响,我根本不会在意。但问题是,他们成功说服了许多亿万富翁相信这些想法。
Elon Musk 可能在某个时候改变了想法。我不知道他是否给过他们钱,有传言说他考虑过。但很多其他亿万富翁给了他们钱,现在他们组织起来,在华盛顿游说 AI 监管。他们也是加州 AI 监管法案背后的推手,而且还从中获利。有报道称,SB 1047 法案的主要发起人 Dan Hendricks 同时创办了一家认证 AI 安全的公司。法案规定必须由第三方进行认证。所以其中有一些「让我们从中获利」的成分。顺便说一下,这些都是根据一篇文章的说法,我不能确定。
我认为 Scott Wiener 参议员起草这项法案是出于善意,试图做正确的事情。但他听取了很多这些「**成员」的意见,他们组织得非常好。而且其中很多人仍然与大型 AI 实验室有联系,有些甚至在这些实验室工作。他们想要创造一种没有 AI 竞争的监管俘虏局面。我不是说所有人的直接动机都是这样的。他们中的许多人是真正的信徒,但有些人可能会以某种有利于这些公司的方式渗透到这个群体中。
Tucker:我来自华盛顿特区,所以我见过很多这样的情况:我的银行账户恰好与我的信念一致。谢天谢地,事情总是这样发展。气候就是一个完美的例子。从来没有一个气候解决方案会让提出它的人变得更穷或失去权力。从来没有。
我想知道,机器能够思考是不是真的?我一直持有这种假设直到现在。
Amjad Masad:让我们来梳理一下他们的推理链。我认为,即使它是一个愚蠢的标志或者可能实际上是一个**,也并不自动意味着他们的论点是错误的。但你确实需要对一些论点进行一些质疑,因为它们来自疯狂的人。
他们的推理链是这样的:人类是通用智能。我们有大脑,大脑是计算机,它们基于我们已知的纯物理现象进行计算。如果你同意人类是计算体,那么我们就可以在机器中构建通用智能。如果你同意到这一步,即使我们只在机器中创建了人类级别的通用智能,我们也可以创建十亿个这样的智能体,那么它们就会变得比我们任何一个人都强大得多。因为它们比我们任何一个人都强大得多,它们会想要控制我们,或者它们不会在意我们,就像我们不在意蚂蚁一样,我们可以随意踩死蚂蚁。因为这些机器如此强大,它们不会在意我们。
我在推理链的第一步就开始有疑问了。每一个环节我都有问题,第一个环节是:大脑是计算机。这基于什么?他们的观点是,如果你不相信大脑是计算机,那你就是在相信某种神秘的精神力量。但是,你得先说服我,你还没有提出一个有说服力的论点。
认为我们已经对宇宙有了完整的描述,这个观点本身就是错误的。我们没有一个统一的物理学理论。我们有微观物理学,有宏观物理学,但我们无法真正将它们统一或结合起来。所以,仅仅做一个唯物主义者就已经是不连贯的,因为我们根本没有一个对世界的完整描述。这是一个附带的论点,我不会详细讨论。
Tucker:不不,这其实是一个非常有趣的论点。你能为那些不熟悉这方面内容的观众解释一下我们对物理学知识的局限性吗?
Amjad Masad:是的。我们本质上有两种相互矛盾的物理学理论,这些系统不能结合起来,它们不是一个普遍的系统,你不能同时使用它们。
Tucker:哦,这表明我们对自然世界的理解有很大的局限性,对吗?
Amjad Masad:是的。我认为这是理性主义者的另一个错误,他们假设我们的科学比实际先进得多。
Tucker:听起来他们对科学了解得并不多。
Amjad Masad:是的。
Tucker:谢谢,很抱歉打断你。
Amjad Masad:没关系,这不是我主要的论点。英国有一位哲学家/数学家/科学家,非常杰出,他的名字是 Roger Penrose 爵士。我喜欢英国人给成就卓著的人加上「爵士」头衔。他写了一本书叫《皇帝新脑》,书名基于「皇帝的新装」这个故事。在他看来,认为心智是一台计算机的观点是一种错误的共识,就像皇帝其实是赤裸的一样。
Tucker:这其实不是一个观点,而是一种断言。
Amjad Masad:是的,这是一种根本错误的断言。他通过非常有趣的方法来证明这一点。数学中有一个东西叫做哥德尔不完备性定理。它表明在数学中有些命题是真实的,但无法证明。哥德尔构建了一个数论系统,他可以在这个数论系统中做出一些命题。我们的思想能够理解数学无法描述的东西。我第一次读到这个时,觉得非常有趣。
Tucker:你昨晚跟我提到一个著名的论点,我从未听过,伯特兰·罗素的自相矛盾命题。
Amjad Masad:它就像「这个陈述是假的」,这是一个著名的悖论,叫做撒谎者悖论。
Tucker:解释一下为什么这是一个悖论?
Amjad Masad:在数学家之间,这是一件非常震撼的事,因为它表明我们的系统是不完备的。
Tucker:所以听起来,你对科学理解得越深,并且越诚实地面对你发现的东西,你就会有更多的问题。这最终把你带回到一个谦逊的姿态。而我看到科学被用于政治领域时,通常是一些无知的人在谈论科学。所以,谁在乎呢?实际上,当卡玛拉·哈里斯给我讲科学时,我根本不想听。但也有一些聪明人说「相信科学」。这种要求背后的假设是,科学是完整的、可知的,我们已经完全了解了它。如果你忽略它,那么你就是无知的,无论是故意的还是其他原因,对吗?
Amjad Masad:在我看来,科学是一种方法,任何人都可以应用。这是民主的,它是去中心化的,任何人都可以应用科学方法,包括那些没有受过训练的人。
Tucker:但要实践这种方法,你必须从谦逊的立场出发。我不知道,所以我使用这种方法来发现。我不能对我观察到的东西撒谎。
Amjad Masad:没错。而今天,科学被用来控制和宣传。
Tucker:在那些不应该掌握它的人手中,比如说一些有丑恶议程的无知者。但我们在谈论你所在的世界,那些非常聪明的人,他们以此为生,真正试图推进科学进步。我认为你说的是,他们中的一些人,不管是有意还是无意,都没有意识到他们有多肤浅。
Amjad Masad:是的,他们通过这个推理链条得出了这个论点。这些论点至少是不完整的,他们理所当然地认为如果你甚至质疑这一点,你就是反科学的。
Tucker:这太愚蠢了。
Amjad Masad:是的。
Tucker:嗯,我来数数大脑和计算机之间的不同之处。首先,你不能保证记忆对过去的忠实再现。记忆会随着时间的推移而改变,对吧?这是一种误导,谁知道为什么,但这是事实,对吧?这对计算机来说不成立。那我们如何解释直觉呢?还有本能?我的问题是,机器能否也具备这些特征?
Amjad Masad:你可以说,神经网络在某种程度上是直觉机器,很多人都这么说。
也许我该为观众解释一下神经网络。神经网络的灵感来自大脑,其理念是你可以将一系列简单的数学函数连接起来,通过给它举例来训练它。比如,我可以给它一张猫的图片。假设这个网络需要判断:如果是猫就说「是」,不是猫就说「不是」。
给它一张猫的图片,如果它说「不是」,那就回答错了。你根据图片和回答之间的差异来调整权重。你重复这个过程,比如说十亿次。然后,网络就会编码出关于猫的特征。这就是神经网络的确切工作原理,你调整所有这些小参数,直到它能够嵌入特征检测,特别是在分类器中。
这不是直觉,在我看来,这基本上是自动编程。当然,我们可以手动编写代码,你可以登录我们的网站写代码。但我们也可以通过机器学习自动生成算法。机器学习本质上是在发现这些算法,有时发现的是非常糟糕的算法。例如,我们给它的所有猫的图片都有草,所以它会学到草等于猫,绿色等于猫。然后有一天你给它一张没有草的猫的图片,它就不知道发生了什么。原来它学到了错误的东西。所以,因为它实际学到了什么是模糊不清的,人们就把它解释为直觉。因为算法并不明确,而且现在有很多工作在试图解释这些算法,这些工作来自像 Anthropic 这样的公司,但我不认为你可以仅仅因为它模糊不清就称其为直觉。
Tucker:那么它是什么?和人类直觉有何不同?
Amjad Masad:我们不需要一万亿个猫的例子来学会认识猫。你知道,一个孩子可以用很少的例子学会语言。而现在当我们训练这些大型语言模型如 ChatGPT 时,你必须给它整个互联网才能学会语言。这与人类的学习方式完全不同。我们是结合了直觉和一些更高级的东西来学习的。我认为我们还没有弄清楚如何让机器也这样做。
Tucker:你认为从结构上来说,机器有可能做到这一点吗?
Amjad Masad:这种推理链会伤害美国工业,伤害初创公司,使得竞争变得更加困难,给予中国巨大的优势。基于这些有缺陷的论点会真正伤害到我们,因为它们并没有真正应对这些真实的问题。
Tucker:听起来它们并没有真正应对这些问题。让我犹豫的不是技术本身,而是那些创造技术的人对人的理解。我认为正确的理解方式是,人不是自我创造的存在,人无法创造生命。人是由某种更高力量创造的,在他们的核心有一种无法描述的神圣火花。因此,人不能被奴役或杀害,这是错误的。世上有对错之分。你知道什么是灰色地带吗?这不是一个灰色地带,因为他们不是自我创造的,对吧?
我认为所有人类行为都源于这种信念,而历史上最不人道的行为则源于相反的信念,即人只是可以和应该被改进的对象,而我对他们拥有完全的控制权。这是一种极权主义的思维方式,它连接了每一个种族灭绝运动。所以,作为一个局外人,我觉得那些创造这项技术的人有这种信念。
Amjad Masad:是的,而且你甚至不需要是一个精神信仰者才能有这种信念。
Tucker:当然不需要。
Amjad Masad:我认为这实际上是一个理性的结论,但有趣的是,现代人的本能是在人的内部寻找原因。而我认为更自然、更正确的本能是在人之外寻找原因。我对两者都持开放态度。是的,我的意思是我不知道答案,因为我确实知道答案,但 hahahaha 我就假装我不知道吧。但至少两种可能性都存在。所以如果你只局限于寻找基因突变或变化,那你就不是一个实证主义者,这实际上不是一种科学的看待问题的方式。你不应该排除任何可能性,对吧?
Tucker:有趣。
Amjad Masad:这非常有趣。
Amjad Masad:我认为这些机器,我把我的业务押注在 AI 会越来越好,这将使我们所有人变得更好,让我们变得更有教养。
Tucker:那么,现在是时候告诉我为什么我应该对我一直在听到的东西感到兴奋了。
Amjad Masad:这项技术,大型语言模型,非常棒。我们发现了解决教育问题的办法。我们可以提升所有地球上的人类。问题是我们没有足够的教师来进行一对一的辅导。这非常昂贵,没有哪个国家能负担得起。所以现在我们有这些可以交流的机器。它们可以教书,提供信息,你可以以一种非常人性化的方式与它互动。你可以与它交谈,它可以回应你。我们可以构建 AI 应用程序来一对一地教学。你可以用它服务 70 亿人,我们可以让每个人都变得更聪明。
Tucker:我完全支持这个观点。这是互联网的承诺,但它并没有实现。所以我希望这次能实现。
但我忍不住要问一下,因为我是来自华盛顿的人,当那些掌权的人看到新技术时,他们首先想到的是如何利用它来**。那么这项技术的军事应用有哪些可能?
Amjad Masad:这就是为什么我对政府监管这项技术的游说努力持怀疑态度,因为我认为最大的滥用者可能是政府。我看了你和哥伦比亚大学教授 Jeffrey Sachs 的采访,他是一个非常主流的人物。我认为他被指派进行《柳叶刀》关于 Covid 病毒起源的研究,他得出了一个非常异端的结论,认为病毒是由美国政府在实验室里创造的。
政府应该保护我们免受这些威胁,但现在他们在谈论流行病准备等等。我们应该关注政府在做什么,如何确保我们有民主进程来确保他们不会滥用这些技术。他们会监管这些技术,使得普通人无法使用这些东西,然后他们就可以自由地滥用这些技术,就像加密技术一样。
Tucker:就像加密技术一样。
Amjad Masad:对。加密是另一个例子。没错。
Tucker:但他们已经这么做几十年了。就像我们获得隐私,但你不被允许,因为我们不信任你。但是通过使用你的钱和你给予我们领导你的道德权威,我们要对你隐藏我们所做的一切,而你对此无能为力。这就是现在美国的现状。那么他们会如何使用 AI 来进一步压迫我们呢?
Amjad Masad:你可以用各种方式,比如自动化无人机。我们已经有自动化无人机了,这可能会变得更糟。有一个杂志叫《972》发布了一篇大篇幅的曝光文章,讲述了以色列如何使用 AI 来定位嫌疑人,但最终杀害了大量平民。这篇文章非常有趣。
Tucker:所以这项技术最终杀害了很多无辜的人,真是黑暗。那监控呢?
Amjad Masad:我认为这也是个问题。我认为它可以被用来进行监控,但我不确定这是否赋予了特别的优势。我认为如果这些游说团体成功,他们的理想结果之一就是确保没有人在训练大型语言模型。要做到这一点,你需要在计算层面插入监控装置。这可能非常危险,我们的计算机会监视我们,以确保我们不在训练 AI。我认为,真正擅长监控的 AI 是视觉类 AI,中国已经在这方面做得很好。这已经存在一段时间了。我确信有办法滥用语言模型进行监控,但我现在想不出来。
Tucker:那制造业呢?
Amjad Masad:它会帮助制造业。现在,人们正在研究如何将这项技术应用于机器人。我投资了几家公司,他们正在研究如何将这项技术应用于机器人。这还是早期科学,但如果我们能应用这项技术,可能会有巨大的进步。
Tucker:技术的整个目的是取代人类劳动,无论是体力劳动还是脑力劳动。我认为,历史上,蒸汽机取代了手臂等。所以如果这项技术像看起来那么具有变革性,你将会有大量闲置的人。这就是为什么你的许多朋友和同事支持 UBI(全民基本收入),他们认为没有这些人可以做的事情,所以我们必须付钱给他们以维持生活。你说你反对这个,我也坚决反对。但另一方面,答案是什么?
Amjad Masad:是的,你知道,有两种看待方式。我们可以看那些失业的个体,这是艰难的,我没有好的答案。但我们可以从宏观角度来看。大多数情况下,技术随着时间的推移会创造更多的工作。你知道,在闹钟发明之前,我们有一个叫「叫醒人」的职业。他们会敲你的窗户,叫你起床。那个工作消失了,但我们在制造业有了十倍的工作,或者可能更多。因此,总的来说,技术的趋势是创造更多的工作。
我可以给你几个例子,说明 AI 如何创造更多的工作,实际上可以创造更有趣的工作。创业是一个非常美国的事情,美国是创业的国家。但实际上新公司成立的数量一直在下降,至少有 100 年的时间在下降。虽然我们对初创公司很兴奋,硅谷是唯一仍在产生初创公司的地方,其他地方并没有那么多新公司成立,这有点令人悲伤。因为互联网本应是一个伟大的财富创造引擎,任何人都可以访问。但实际上,它只是集中在一个地理区域。
Tucker:回过头看,互联网像是一个垄断生成器。
Amjad Masad:但它不一定是这样。我认为 AI 可以帮助人们创业,因为你有这个易于编程的机器,可以帮助你编程。我给你几个例子。在 Covid 期间,丹佛的一位教师有点无聊,上了我们的网站,参加了一个免费的编程课程。他学会了一些编程知识,利用自己的教学经验开发了一款帮助教师使用 AI 进行教学的应用程序。一年内,他建立了一家价值数千万美元的公司,获得了大量资金。我认为他筹集了 2000 万美元。这是一位学会编程的教师,迅速建立了这个庞大的业务。我们还有摄影师的故事,他们的收入达到了数百万美元。所以这是一种,去中心化访问这项技术的方式。
Tucker:这种承诺对我来说是有意义的。我希望它成为现实。我们有一个共同的朋友,他非常聪明,是一个善良的人,他对这个主题很有研究并参与其中。他告诉我,AI 的一个承诺是,它将让人们拥有虚拟的朋友或伴侣,它将解决美国显然存在的巨大孤独问题。我不想说他不好,因为我非常喜欢他,但这对我来说似乎非常糟糕。
Amjad Masad:是的,我不赞成那些。我认为我们对什么是黑暗和反乌托邦的东西有相同的直觉。我们有相同的直觉。
Tucker:他是一个了不起的人,但我认为他没有真正考虑过这些问题。我们意见不一致,但我没有论据,只是一种本能。我认为人应该与人发生性关系,而不是机器。
Amjad Masad:没错。我甚至会说,有些应用程序有点不道德,比如说,利用孤独者,给他们提供机会,但这会让他们实际上没有动力去外面约会,找个女朋友。就像色情片一样。
Tucker:对。
Amjad Masad:是的,我认为这对社会非常糟糕。所以我认为应用技术可以正面或负面使用。如果有一个**组织致力于推动 AI 作为一种正面技术,我会完全支持他们。历史上,有一些自我纠正的文化现象。比如对色情的自我纠正,现在正在发生。对垃圾食品的自我纠正,比如 Whole Foods 现在很受欢迎。
Tucker:空气和水中的化学物质,十年前这还是一个非常冷门的话题,只有怪人才关心,比如 Bobby Kennedy 关注这个问题,但现在这已经成为正常对话的一部分。
Amjad Masad:是的,每个人都担心微塑料对生殖器官的影响。
Tucker:对,这是一个合理的担忧。所以,我并不惊讶硅谷有**组织,我认为你提到的并不是唯一的一个,我认为还有其他**组织。这是我的感觉。我不惊讶,因为每个人生来就知道有一种超越自我的力量存在。这就是为什么每个文明都崇拜某种东西。如果你不承认这一点,你只会崇拜更愚蠢的东西。所以我的问题是,作为一个生活和工作在那里的你,硅谷的决策者中,有多少人会公开承认宇宙中有一种超越自我的力量?
Amjad Masad:大多数情况下,没有。我认为大多数人不会承认。我不想说大多数人,但绝大多数讨论都是更为智性的。我认为人们理所当然地认为每个人都具有世俗的观点。
Tucker:我认为,真正的聪明人最终会意识到我们知道的不多,我们的力量也不大。这是我的观点。
Amjad Masad:这是许多深入研究的科学家的观点。我不记得是谁说的,但有人说过,科学的第一口让你成为无神论者,但在杯底,你会发现上帝在等你。
Tucker:Mathias Desmet 写了一本关于这一点的书,虽然据说是关于新冠的,但实际上不是。我强烈推荐这本书。书中提到的观点正是你刚才说的:你越深入科学,越会发现某种秩序,它不是随机的。数学中展示出的美丽,让你越发确定这里有一种设计,这种设计不是人类或所谓的「自然」的,而是超自然的。这是他的结论,我同意。但在你所认识的科学世界中,有多少人会这么认为?
Amjad Masad:我可以说,这样的人真的屈指可数。
Tucker:哦,有意思。这让我担心,因为我觉得没有这种认识,傲慢是不可避免的。
Amjad Masad:是的,很多结论都源于傲慢。比如,很多人认为 AI 是迫在眉睫的生存威胁,很多人相信我们将在五年内全部死去,这种想法就来自于傲慢。
Tucker:真有趣。在遇见你之前,我从没想到这一点。实际上,这本身就是傲慢的表现。我从没这么想过。
Amjad Masad:是的,傲慢可以表现为消极的,也可以表现为积极的。我认为积极的一面是好的,比如 Elon 就体现了这种自信,相信自己可以制造火箭和电动车。这种自信可能在某些情况下是妄想,但通常会带来创造的动力。我认为如果像 SBF 那样,将这种自信用于不道德的行为,包括偷窃和欺骗,那就会变得病态。
Tucker:我一直不理解,或者说理解得太清楚,但有效利他主义显而易见地导致人们彼此之间变得更糟,而不是更好。
Amjad Masad:是的,这真是讽刺,但我觉得这就在名字里。如果你自称为某种宏大的东西,你通常会表现得很糟糕。比如「伊斯兰国」既不是伊斯兰也不是国家,有效利他主义者既不有效也不利他。
Tucker:联合国也不团结。这真是智慧之言。我不认为任何大型语言模型或机器能够得出你刚才说的那种深层真理,因为深层真理总是带有讽刺意味,而机器不理解讽刺,对吧?
Amjad Masad:目前还不行,也许未来可以。我的立场没有你那么强硬。我相信如果你给予足够的数据,它们可能会理解。
Tucker:说真的,我不知道它们的能力有多大。
Amjad Masad:我认为它们可能无法创造出真正新颖且有深刻见解的讽刺,但如果你在数据中加入大量讽刺,它们就能理解。
Tucker:它们可以模仿人类的讽刺。
Amjad Masad:它们是模仿机器,实际上是在模仿。大型语言模型的训练方式是给予它们大量文本,然后隐藏一些词语,它们会尝试猜测这些词,并调整神经网络的权重,最终它们会非常擅长猜测人类会说什么。
Tucker:那么你实际上是在说,这些机器所说的内容都是输入数据的总和,包括输入数据的人们的个性和偏见。那你希望最优秀、最谦逊的人来做这件事,但似乎我们让最不谦逊的人在做。
Amjad Masad:我认为有些人是谦逊的,我不会说所有从事 AI 工作的人都很优秀、善良,想做正确的事。确实有很多人带着错误的动机来做这件事,出于恐惧等原因。
Tucker:完全正确。这是一个自我循环的问题,因为你迎合了人类的低级欲望,并创造了一种激发更多人这种欲望的文化。换句话说,色情越多,人们对色情的需求就越大。我也在想现有行业的反抗,比如医学领域。你提到过医学进步,这对诊断来说是很有意义的,因为诊断实际上就是数据排序的问题。机器总是能比任何医院或医生更有效、更快速地完成这项任务。诊断是最大的障碍,对吧?这将实际让很多人失业。如果我能输入我的症状到机器里,并得到比在梅奥诊所三天后更准确的诊断,那么谁还需要梅奥诊所?
Amjad Masad:我有一个具体的故事。我曾经有一个慢性问题,花了数十万美元看医生,找到世界顶尖的专家,但他们都没能给出正确的诊断。最终我自己写了一点代码来收集数据,用 AI 运行了一次,它给出的诊断是医生们忽略的,结果证明这是正确的诊断。
Tucker:这真是不可思议。
Amjad Masad:是的,非常了不起,改变了我的生活。
Tucker:这是一个你自己写代码实现的结果?
Amjad Masad:是的,写了一点代码。
Tucker:这表明我们离公开使用这种技术已经不远了。
Amjad Masad:是的,顺便说一句,我认为任何人现在都可以写一点代码。在 Replit,我们有一个叫「100 天代码」的项目,如果你每天花 20 分钟做一点编码,三个月后你就能成为足够好的程序员,建立一个创业公司。最终你会有人为你工作并提升技能,但你会有足够的技能。我想向听众发出一个挑战,如果他们完成这个项目并建立一个可能成为企业的东西,我愿意帮助他们推广,提供一些云服务的积分等等,只要在 Twitter 上 @ 我,并提到这个播客。
Tucker:你的 Twitter 用户名是什么?
Amjad Masad:@amasad。
Tucker:但是有很多既得利益者,我不想深入讨论 Covid 的事,但我觉得你看到了在 Covid 期间,动机总是混合的。我确实认为有高尚的动机与低劣的动机混在一起,因为这就是人性。但在某种程度上,利润动机压倒了公共健康。我认为这是公平的。所以,如果他们愿意为了维持股价而伤害人们,他们会怎么抵制让人们通过机器免费获得更准确的诊断呢?
Amjad Masad:在某种程度上,这就是为什么我认为开源 AI 和人们学习如何自己做一些事情是非常重要的。当然,如果有公司在提供这些服务,会做得更好。但 AI 的存在以及很多是开源的,你可以下载到你的机器上使用,这已经足够帮助很多人了。当然,你应该总是与医生沟通,我也是,我不是在给人们建议去自己解决这些问题,但我确实认为这已经在赋能人们了。这是第一步。
Tucker:对于我这样的人,我不会去看医生,直到他当面为四年的谎言道歉。我对医生没有任何尊重,对任何说谎的人也没有。我不会从一个骗子那里获得生活建议,特别是关于健康的建议,因为这不理智。我不会从无家可归者那里获得房地产建议,也不会从因欺诈入狱的人那里获得财务建议。我确定有医生会道歉,但我还没遇到。所以对于像我这样的人来说,在医生道歉之前我不会去看医生,这种 AI 诊断系统可能真的能救命。
Amjad Masad:至于是否会有监管俘虏的问题,我认为这就是为什么你看到硅谷开始涉足政治。硅谷一直在某种程度上参与政治。我记得我 2012 年来到这里,那时是罗姆尼和奥巴马的辩论。当时人们只是取笑罗姆尼,他说了一些像「满满一文件夹的女性」这样的话,而奥巴马借此机会击败了他。我记得问周围的每个人,你支持谁?他们说,当然是民主党。我问为什么这里没有人支持共和党?他们说,因为他们很蠢,只有蠢人才支持共和党。硅谷就像一个单一党派的小镇。
这里有一些关于公司政治捐款的数据,比如 Netflix 99% 的捐款给了民主党,只有 1% 给了共和党。如果你看看朝鲜的政党多样性,实际上情况还要好一点。
Tucker:他们的媒体也更诚实。
Amjad Masad:但现在你会看到,越来越多的科技人士开始支持共和党,甚至是特朗普。特别是 Marc Andreessen 和 Ben Horowitz,他们录了两个小时的播客,讨论他们为什么支持特朗普。
Tucker:他们是美国最大的风险投资公司。
Amjad Masad:我不知道用什么标准来判断,但他们肯定在朝着成为最大的方向发展,他们无疑是最好的。
Tucker:他们说了什么?我应该看的,但我没看。
Amjad Masad:他们解释了为什么他们会投票给特朗普。顺便说一下,他们在 2018 年或 2019 年时绝不会这样做。所以这是一种氛围的转变。
Tucker:这种转变的效果如何?
Amjad Masad:反响不一,但比十年前好多了。当时如果他们公开支持共和党,他们会被取缔,没人会接受他们的钱。
Tucker:我作为一个局外人来看,Andreessen Horowitz 如此大且有影响力,他们被认为很聪明,完全没有疯狂的迹象。如果 Andreessen Horowitz 这么做,那肯定会改变人们的看法。
Amjad Masad:是的,肯定会改变人们的看法。我认为这会给很多人勇气,至少让他们说出自己支持 Trump 的立场。我认为这确实改变了我的想法。
他们提出了一个「小科技」的议程。你知道,现在有「大科技」在进行游说,那么谁在为像我们这样的小型公司游说呢?那些只有一两个人的小公司呢?实际上没有人。比如,民主党非常热衷于监管 AI。最搞笑的一件事是,卡玛拉·哈里斯被邀请参加一个 AI 安全会议,他们在讨论生存威胁。她说,有人被拒绝医疗服务,这对他们来说是生存威胁。
她把生存威胁解释为任何风险都是生存威胁。这只是一个例子。但他们在监管方面行动非常快,他们发布了一项行政命令。
Tucker:他们到目前为止所做的调整,从用户的角度来看,只是确保打击白人。实际上是推动一种反乌托邦的极权主义社会议程,种族主义的社会议程。这种情况会永久存在吗?
Amjad Masad:情况已经在改变了,这种情况已经有所逆转,虽然还不完美,但已经在改变。我认为这是文化变迁的结果。我认为 Elon 收购 Twitter 并让人们自由讨论和辩论,推动了文化向更加中立的方向发展。这是积极的,因为公司内部的文化原本非常左倾,设计产品的方式让乔治·华盛顿看起来像是黑人乔治·华盛顿。
Tucker:这简直是在撒谎,这让我很反感。我不想听到谎言,乔治·华盛顿不是黑人,国父都是白人新教徒。抱歉,这就是事实。请接受它。如果你要在这件事上撒谎,那你就是我的敌人。
Amjad Masad:我认为这是公司的少数人在做这种事,但他们是控制者。我在 2015 年加入 Facebook 时,目睹了文化的变化。小部分激进分子让公司领导层害怕员工。
Tucker:这真是让我担忧的事情。硅谷正在定义我们的未来,而勇气是领导的第一要素。如果公司的领导怕那些 26 岁未婚的 HR 女孩,那就太懦弱了。应该明确告诉他们:「你们不是公司领导,我才是。」这很简单,不知道为什么这么难。
Amjad Masad:我认为这些公司在争夺人才的时候,完全是疯狂的竞争。那时的美国经济是零利率时代,大家都在向人才砸钱。因此即使只是稍微冒犯了员工的感受,你也会害怕他们会离开。我只是试图为他们找借口,但这确实是其中一个原因。
Tucker:你可以回答这个问题,因为你是从约旦来到湾区的人,来这里追求创造力和洞察力。那些能写代码的人,是否像你或 James Damore 一样,不像政治活动家?
Amjad Masad:大多数程序员确实更理性,但我认为学习编码并不会自动使人变得更理性。虽然编程可以帮助你变得更理性,但也很容易被情感所左右。
Tucker:所以大脑不是计算机?
Amjad Masad:大脑确实不是计算机,这正是我的观点。我可能是美国最多人学习编程的推动者之一,因为我开发了首个让人在浏览器中轻松编写代码的软件,它非常流行。后来我加入了 Code Academy,帮助他们教授了大约 5000 万人如何编程。虽然编程是一种工具,但我从未真的相信它能教会人们如何思考。编程是一种有趣的工具,可以用来构建、自动化和创作,但我不认为你能通过它使人变得更理性。人们可以通过教育和实践变得更理性,但不能强制教会他们。
Tucker:我完全同意。我一直以为,写代码的人性格上有些相似,但事实证明并非如此。
Amjad Masad:做程序员的人可能确实如此,但任何人都可以学会编写大量代码。
Tucker:我们还没提到 Elon Musk 和 David Sacks。他们也都支持特朗普。那么,你认为硅谷的氛围真的在变化吗?
Amjad Masad:是的,其实我认为这要归功于 Sacks,甚至可能比 Elon 的影响更大。你看,这是个一党统治的地方。举个例子,没有人会看任何保守派的观点,或者说,大多数人没有接触过右翼或中间偏右的意见。你只是一直沉浸在自由派民主党的观点中。我认为 Sacks 的《All In》播客是很多人第一次每周听到保守派的谈话。
Tucker:真有趣。
Amjad Masad:我开始在聚会和其他场合听到人们把自己的政治观点描述为「Sacks 主义」。他们会说:「嘿,你知道吗?我同意你的观点,大多数时候我同意 Sacks 在 All In 播客上的观点。」我说:「是的,你现在可能是温和派或中间偏右。」他非常合理。
Tucker:首先,他在我看来是一个非常好的人。但我不知道那个播客的影响力有多大。直到有一天他邀请我参加他的播客,我说,当然可以,因为我喜欢 David Sacks。我参加了播客后,我认识的每个人都给我发短信说:「哦,你上了 All In 播客。」这不是我的领域,我没有意识到这是一个接触那些不太政治化但可能会给某个候选人捐款的商业头脑人的途径。
Amjad Masad:没错。顺便说一下,这也是我说的技术可以有集权效果,也可以有去中心化效果的观点。你可以说 YouTube 是集权的,他们在向我们灌输意见。但现在你在被 Fox 开除后,有了自己的 YouTube 平台。
Tucker:是的。
Amjad Masad:Sacks 也有自己的平台,可以表达这些观点。我觉得,在 Covid 期间,有一段时间我感觉他们会关闭所有东西。
Tucker:你有这种感觉?
Amjad Masad:是的,也许未来会有一些其他事件让他们有理由关闭它们。但是,我非常喜欢美国的一点是第一修正案。这是人类历史上最重要的制度创新。
Tucker:我完全同意。
Amjad Masad:我们真的应该保护它。我们应该非常珍惜它,就像珍惜妻子一样。
Tucker:我完全同意。你能重复一下你对其历史重要性的描述吗?抱歉,你说得太好了。
Amjad Masad:这是人类历史上最重要的制度创新。
Tucker:第一修正案是人类历史上最重要的制度创新。是的,我很喜欢这个说法。我觉得完全正确。作为一个从小就生活在有第一修正案保护的国家的人,你不会特别感觉到它的存在。就像重力一样,它自然存在。但作为一个在没有这种保护的国家长大的人来说——地球上其他所有国家都是这样的。
Amjad Masad:只有一个国家有这种保护。
Tucker:你会发现这是美国之所以成为美国的关键。
Amjad Masad:是的,它让我们能够改变方向。正是因为这个原因,我们才摆脱了所谓的「觉醒」文化和盲从的暴民心态。我认为 Elon 买下 Twitter 并让我们能够自由讨论、辩论,是我们走出这种疯狂的重要原因之一。
Tucker:这很美好,我是这一点的直接受益者,我认为全国每个人都是。我不是在贬低 Elon,我很喜欢他,但有点奇怪的是,一个外国人要来做这件事。这有点让人失望,为什么没有一个美国出生的人来做这件事?也许是因为我们太习以为常了。
Amjad Masad:对,我开始看到精英治理的价值被削弱了,我想这也是我写那篇帖子的一部分原因。我意识到这里的大多数美国人并没有真正重视这一点。
Tucker:我讨厌这么说,因为我一直认为外国人很棒。我喜欢去外国旅行,我最好的朋友也是外国出生的,尽管我反对大规模移民,但我是反对的。
Amjad Masad:阿拉伯人很喜欢你。
Tucker:哦,我也很喜欢阿拉伯人。我们摆脱了洗脑。插一句,我觉得 23 年前我们和阿拉伯人有过不愉快的经历,很多美国人没有意识到这一点,但我从多次中东旅行中知道,那次事件很糟糕。但那并不能代表我在中东共进晚餐的人。有人曾对我说,那些是我们国家里最糟糕的人。我完全同意这一点,我总是衷心地为阿拉伯人辩护。我想知道,尤其是一些高收入的移民,最近我注意到,他们似乎在学那些反美的废话,从学术机构学来的。你知道,你来自旁遮普,上了斯坦福大学,突然间你就有了和斯坦福本地教授一样腐朽、颓废的态度。你有这种感觉吗?
Amjad Masad:我不确定这种分布情况,但印度裔中有 Vivek 这样的人,他深思熟虑,不仅支持第一修正案,还知道它为什么重要。
Tucker:对,他是个很好的例子。Vivek 不仅认为第一修正案好,还明白它为什么好。
Amjad Masad:你问到硅谷的变化。我想部分原因是,硅谷仍有很多人这样说这样做,因为他们理解第一修正案的重要性。
正加财富网内容推荐 | ||
OK交易所下载 | USDT钱包下载 | 比特币平台下载 |
新手交易教程 | 平台提币指南 | 挖矿方法讲解 |