为什么说 AI 将拯救整个世界?
【CSDN 编者按】AI 会让我们失业吗?AI 会“杀”死人类吗?当一门重要的新技术横空出世的时候,人们总是会担心它给人们带来的种种威胁,基于此,本文作者 认为,虽然 AI 风险很高,但也存在非常有影响力的机遇。
原文链接:https://pmarca.substack.com/p/why-ai-will-save-the-world
未经允许,禁止转载!
出品 | CSDN(ID:CSDNnews)
人工智能的时代来了,很多人都吓坏了。
AI 是什么?
首先,我们来简单地介绍一下人工智能(AI)是什么。AI 是通过数学和软件代码教计算机如何以类似于人类的方式理解、综合和生成知识的应用程序。AI 是一种计算机程序,与其他计算机程序一样,AI可以运行、接受输入、处理并生成输出。AI的输出在广泛的领域都有应用,包括编程、医学、法律、创意艺术以及其他等等。与其他技术一样,AI也是归人所有并由人控制的。 至于 AI 不是什么,简单来说,AI不是杀手软件,也不是突然活过来并决定谋杀人类或以其他方式毁掉一切的机器人,与你在电影中看到的情节完全不同。 对于 AI 可以成为什么,简单的描述是:一种让我们关心的一切变得更好的方法。
为什么 AI 可以让我们关心的一切变得更好?
经过几十年以及数千项的研究,社会科学得出一个最有效的核心结论是,人类智慧可以改善广泛的生活产出。聪明的人几乎在各个活动领域都能取得更好的结果:学业成绩、工作业绩、职业地位、收入、创造力、身体健康、长寿、学习新技能、管理复杂任务、领导力、创业成功、解决冲突、阅读理解、制定财务决策、理解他人的观点、创造性艺术、育儿成果以及生活满意度。 此外,人类智慧是我们几千年来创造出今天生活的世界的杠杆:科学、技术、数学、物理、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、 伦理、道德。如果这些领域没有人类智慧的参与,我们仍将住在茅草屋,食不果腹。然而,在过去的四千年里,我们利用人类的智慧将我们的生活水平提高了数万倍。 AI 为我们提供了增强人类智能的机会,可以进一步提升所有的智能成果,包括新药品的发明创造、解决气候变化,以及探索其他星球等等。 AI 增强人类智能的应用已经开始,AI 已通过多种计算机控制系统的形式渗透我们的生活,如今随着 ChatGPT 等 AI 大型语言模型迅速升级,只要我们敞开怀抱拥抱 AI,就能加速这一切发展。 在这个 AI 的新时代:
- 每个孩子都将拥有一位无比耐心、无比善良,且拥有无限知识、能提供无限帮助的AI导师。每个孩子成长的每一步,都有AI导师陪伴在侧,用无限爱心帮助孩子们发挥最大潜能。
- 每个人都将拥有一位无比耐心、无比善良,且拥有无限知识、能提供无限帮助的 AI 助手/教练/导师/培训师/顾问/治疗师。我们在生活中遇到所有的机遇和挑战,都有AI助手陪伴在侧,最大限度地提升每个人的成果。
- 每位科学家都将拥有一位 AI 助手/合作者/伙伴,极大地扩展他们的科学研究和成果范围。每位艺术家、工程师、商人、医生、护理人员也都将拥有一位 AI 助手/合作者/伙伴。
- 每位领导人,包括首席执行官、政府官员、非营利组织主席、体育教练、教师也都将拥有一位 AI 助手/合作者/伙伴。帮助领导人做出的更好的决策,这可以放大优秀的决策带来的影响力,因此这种智能增强是重中之重。
- 整个经济体的生产力将急剧加速,推动经济增长、创造新兴产业、新的就业机会、激励收入增长,并引领全球迈入物质繁荣的新时代。
- 科学的突破性发展、新技术和药品的问世将得到全面扩大,因为AI可以帮助我们进一步破译自然法则,并为我们谋求福利。
- 创意艺术将进入黄金时代,因为AI增强的艺术家、音乐家、作家和电影制作人能够比以往任何时候更快、更大规模地实现他们的愿景。
- 我甚至认为,AI 将在必要时大幅降低战时死亡率。每一场战争都是在巨大的压力下做出可怕的决定,能力有限的人类领导能够获取的信息也非常有限。而如今,军事指挥官和政治领导人将拥有AI顾问,帮助他们做出更好的战略以及战术决策,最大限度地减少风险、错误和不必要的流血事件。
- 简而言之,凡是能够通过人类的智能解决的任何问题,有了AI的帮助就能做得更好,我们将能够应对没有 AI 就无法应对的新挑战,包括治愈所有疾病,以及实现星际旅行。
- AI 不仅仅有智慧!AI 最被低估的品质是它的人性化程度。在AI的助力下,即使是没有艺术才能的人也能够自由地创造和分享他们的艺术想法。与善解人意的 AI 交谈可以提高人类应对逆境的能力。AI 医疗聊天机器人比人类更具同理心。拥有无限耐心且富有同情心的 AI 不仅不会让这个世界变得更加严酷和机械化,而且还能让世界变得更加温暖和美好。
为什么恐慌?
与上述积极的观点形成鲜明对比的是,目前公众对于AI充满了恐惧和偏执。 我们经常听到这样的说法:AI 会以各种方式杀死我们所有人,毁掉我们的社会,夺走我们的饭碗,造成严重的不平等,并助纣为虐。 如何解释这种从近乎乌托邦到可怕的反乌托邦的分歧? 从历史的角度来看,每一项重要的新技术出现都会引发道德恐慌,包括电灯、汽车、收音机以及互联网,人们认为这些新技术将摧毁世界、社会或者同时毁灭二者。几十年来,我们一次又一次地见证了这种悲观主义者。而事实上,目前我们看到的AI恐慌甚至都不是第一次。 诚然,许多新技术确实引发了不良后果,但通常同一种技术同样能在其他方面为我们带来巨大的好处。道德恐慌确实意味着一些担忧。 但道德恐慌本质上是非理性的,它会放大合理的担忧,甚至到歇斯底里的程度,具有讽刺意味的是,这使得人们更难面对真正严重的担忧。 那么,现在 AI 面临着全面的道德恐慌吗? 很多人利用这种道德恐慌提出采取政策行动的要求,包括新的 AI 限制、法规和法律。这些人就 AI 的危险发表了极其戏剧化的公开声明,这无疑进一步煽动了道德恐慌,而他们表现得就像是公共利益的无私捍卫者。 但他们真的是人类的捍卫者吗? 他们是对还是错?
AI 的“浸信会”与“走私者”
经济学家观察到了这种改革运动的长期模式。这类运动的参与者分为两类:“浸信会”和“走私者”,这里我们借鉴了上个世纪20年代的美国禁酒令:
- “浸信会”指的是社会改革的真正信徒,他们认为酒精正在破坏社会的道德结构,需要新的限制、法规和法律来防止社会灾难。 套用到 AI 的 风险,“浸信会”指的是相信 AI 真的会带来灾难的人群。
- “走私者”指的是自私自利的机会主义者,他们利用新的限制、法规和法律打击竞争对手,从而在经济上获利。 在美国禁酒令期间,“走私者”就是私下贩卖酒精的投机分子,他们利用这个期间向美国人出售非法酒类而攫取巨额利润。 套用到 AI 的 风险,“走私者”可以利用这个风险建立监管壁垒,为自己谋求更多利益,这些壁垒形成了一个由政府支持的 AI 供应商组成的垄断联盟,保护他们免受创业公司和开源竞争的影响。
AI 风险 #1:AI 会杀死我们所有人吗?
有关 AI 的末日风险,首当其冲的就是 AI 会干掉所有人类。 我们自己创造的技术崛起并摧毁我们的恐惧已深深地融入了我们的文化。希腊人在普罗米修斯神话中表达了这种恐惧,普罗米修斯为人类带来了火,但同时火也具有破坏力,为此普罗米修斯被众神审判,遭受永久的折磨。玛丽·雪莱在她的小说《弗兰肯斯坦》(又名《现代普罗米修斯》)中讲述了这个神话的现代版,我们开发出了永生技术,然而这种技术崛起后试图摧毁我们。当然,詹姆斯·卡梅隆的电影《终结者》中红眼杀人机器人也为 AI 带来的恐慌抹上了浓墨重彩的一笔。 这个设想之所以得到发展,是为了鼓励我们认真考虑新技术的潜在风险,毕竟火确实可以烧毁整个城市。但同时,火也是现代文明的基础,可以在寒冷的夜晚为我们带来温暖和安全。这个神话忽视了大多数新技术带来的积极影响,一味强调破坏性,缺乏理性分析。我们不能因为前人有这样的恐惧就盲目跟从,我们可以更加理性。 我的观点是,AI 将干掉所有人类这个想法是一个严重的错误。AI 不是经过数十亿年的进化而加入适者生存之战的生物,AI 不同于动物和我们。AI 是数学、代码和计算机的产物,由人类建造,归人类所有,由人使用,由人控制。AI 发展到一定的程度就会产生自己的思想,并产生干掉所有人类的动机,这种想法本身没有充分的根据。 简而言之,AI 不会产生这种想法,它没有目标,它不想杀死你,因为它没有生命。AI 就是一台机器,就像烤面包一样,它们不会突然跳起来干掉你。 如今很明显,“浸信会”的信徒相信 AI 是杀手,大量的媒体报道了骇人听闻的“警告”,其中一些人声称有关这个话题的研究已长达几十年了,而且还说研究结果令他们感到恐惧。部分信徒甚至是AI创新方面的领导者。这些人主张对 AI 实施各种奇怪和极端的限制,禁止 AI 开发,甚至主张对数据中心发动军事空袭和核战争。他们争辩说,像我这样的人不能排除 AI 未来的灾难性后果,因此我们必须采取预防措施,哪怕是这些措施可能涉及大量的暴力和死亡,也要防止 AI 的潜在存在风险。 我认为,他们的立场并没有从科学的角度出发,他们设定的可检验假设是什么?如何证伪这个假设?我们如何得知何时进入危险区域?这些问题基本上没有答案,他们只能找借口说:“你无法证明它不会发生!”事实上,这些“浸信会”的立场是非常不科学和极端的,况且他们还在呼吁暴力行为,所以我不禁会质疑他们的动机。 具体来说,我认为他们的动机主要有以下三点: 首先,冯·诺伊曼认为核武器是结束第二次世界大战并防止第三次世界大战的唯一方法,他在回应罗伯特·奥本海默时表示,“有些人承认罪行是为了获取罪恶的殊荣。”为了宣扬自己工作的重要性,还有什么方式比公开吹嘘更加戏剧性的?这就解释了为什么实际构建和资助 AI 的“浸信会”教徒会言行不一,我们应该关注他们的行动,而不是他们的言论。 其次,有些“浸信会”教徒实际上就是“走私者”,包括“AI安全专家”、“AI伦理学家”、“AI风险研究员”等职业。他们拿了钱宣扬毁灭论,所以我们应该理性思考他们的言论。 第三,“AI 风险”已经发展成为一种“邪教”,不仅吸引了边缘人物,而且还拿到了不少的资助。这类“邪教”并不新鲜,西方的千禧年主义由来已久,并由此而产生了末世“邪教”。而如今人们对 AI 风险的恐惧与千禧年主义如出一辙。有关千禧年主义,维基百科上的说明如下: 千禧年主义的概念来自于“千纪”,即是指长度为一千年的时间循环。千禧年主义是某些基督教教派正式的或民间的信仰,这种信仰相信将来会有一个黄金时代:全球和平来临,地球将变为天堂。人类将繁荣,大一统的时代来临以及“基督统治世界”。 很明显,我们不能任由这种“邪教”来决定法律和社会的未来。
AI 风险 #2:AI 会毁掉我们的社会吗?
有关 AI 风险的讨论,第二个广泛的观点是 AI 会毁掉我们的社会,AI 会生成“有害”的输出,对人类造成深远的伤害。 简单来说,他们认为,即便 AI 不会干掉我们,也会散播仇恨言论和错误信息。 事实上,有关 AI 风险的描述最近从“AI 安全”(用于描述 AI 会干掉我们的术语)变成了“AI 对齐”(用于描述 AI 会“危害”到人类社会的术语)。最初担心 AI 安全的人们不满这种转变,但他们不知道如何转变回去,于是如今他们又发明了一个新词语“AI 不会干掉每个人主义”(notkilleveryoneism),虽然这个词语尚未被广泛采用,但至少意思很明确。 有关 AI 社会风险的术语“AI 对齐”是什么意思?和什么对齐?人类价值观。哪个人类的价值观?这就是棘手的地方。 碰巧的是,我曾亲历类似的情况:社交媒体“信任与安全”之战。多年来,社交媒体服务一直承受着来自政府和活动家的巨大压力,他们要求禁止、限制、审查社交媒体内容。有关“仇恨言论”(以及“算法偏见”)和“错误信息”的担忧如今已从社交媒体转移到了“AI 对齐”。 我从社交媒体大战吸取的教训是: 一方面,没有绝对的言论自由立场。首先,每个国家都会将某些内容定为非法。其次,对于某些类型的内容,几乎每个社会都会一致同意禁止访问这些内容,而无论合法与否。因此,任何内容技术平台都会受到一些限制。 另一方面,滑坡谬误(Slippery slope,一种非形式谬误,使用连串的因果推论,却夸大了每个环节的因果强度,而得到不合理的结论。)实际上并不是谬误,而是必然。一旦框架开始限制极其可怕的内容(比如仇恨言论、错误信息或虚假声明),政府机构以及其他团队就会介入,并要求对他们认为对社会和/或他们的个人偏好构成威胁的所有言论进行更严格的审查和抑制。 而如今“AI 对齐”也面临相同的状况。支持者声称他们设计的 AI 能够生成对社会有益的言论和思想,并禁止 AI 生成对社会有害的言论和思想。而反对者则声称,思想警察过于傲慢和专横,他们才是彻头彻尾的犯罪。 如果你不认为社交媒体和 AI 遭遇了相同的道德问题,至少应该意识到,相较于围绕社交媒体审查制度的斗争,有关允许 AI 生成什么内容的问题更为重要。AI 极有可能成为世界万物的控制层。AI 运作机制的重要性超越了一切。 我们不能让思想警察抑制 AI。
AI 风险 #3:AI 会抢走我们的饭碗吗?
自机械织布机问世以来,数百年间,人们对于因机械化、自动化、计算机化或人工智能而导致失业的恐惧反复出现。尽管从历史的长河来看,每一项新技术都会带来更多更高薪酬的工作岗位,但每一波恐慌都会有人说“这次不同”:这一次真的不同以往,科技会打碎每个人的饭碗。然而,这种情况从未出现。 纵观近期,我们经历了两次这样的科技引发的失业恐慌:2000年的外包恐慌和 2010 年前后的自动化恐慌。尽管在过去的几十年里,许多领导、专家,甚至是科技行业的高管都在敲桌子说,大规模的失业即将爆发,然而到 2019 年底(新冠疫情爆发之前),全世界的工作岗位数量高于历史时期,而且薪资也更高。 然而,这个错误的思想不会消亡。 果然,它又回来了。 这一次,取代所有工作岗位,并使得人类变得多余的技术——真正的人工智能真的来临了。这一次历史肯定不会重演,AI 将引发大规模失业,经济、就业和薪资都不会再次快速增长。真的是这样吗? 不,当然不是。事实上,如果我们允许 AI 融入整个经济,那么就有可能迎来有史以来最剧烈且持续时间最长的经济繁荣,相应地工作岗位和薪资增长也会创新纪录,与人们的恐惧截然相反。原因如下。 自动化扼杀工作岗位的厄运论者不断犯的核心错误是“固定劳动总量谬误”(认为社会中需要做的工作总量是固定的)。这种错误的观念认为某个时间点,社会中需要做的工作总量是固定的,或者由机器来做,或者由人类来做,如果由机器来做,那么人类就没有工作可做了。 “固定劳动总量谬误”源于幼稚的直觉,显然是错误的。我们将技术应用于生产,生产力就会得到提高,投入减少,产出增加。结果是,商品和服务的价格降低。随着商品和服务价格的下降,我们支付的费用也会相应减少,这意味着,我们将拥有额外的消费能力来购买其他东西。这会刺激需求,推动生产力的创新,包括新产品和新产业,而这反过来就会为那些被机器取代的人创造新的就业机会。其结果是,整个经济体增大,我们将拥有更高的物质繁荣、更多的工业、更多的产品和更多的就业机会。 好消息还不止这些。我们还可以获得更高的薪资。这是因为,从个体劳动力的角度来看,市场决定了薪酬将随着劳动力的边际收益产量(即在其他要素投入量不变的条件下,单位劳动力的投入所带来的产量增加,从而导致收益的增加)而变化。在科技的主力下,个体员工的生产力将高于传统企业的员工。雇主会因为工人的工作效率提高而支付更高的薪水,否则其他雇主也会这么做,这并不以个人意志为转移。结果是,引入高科技后,不仅该行业的就业人数会增加,而且薪资也会提高。 总而言之,技术能够提高我们的工作效率。这会导致现有商品和服务的价格下降,薪资上涨。而这反过来又会促进经济增长和就业增长,同时推动就业机会和产业创新。如果市场经济正常运行,同时允许自由引进技术,那么这个良性循环会不断攀升。正如 Milton Friedman 所说:“人类的需求永无止境”,我们的欲望总是超出我们的所有。在注入了技术的市场经济下,每个人都可以获得自己想要的一切,但这从未成为现实。这就是为什么科技永远不会抢走我们的饭碗的原因。 这一次有了 AI,我们就可以拥有取代所有人类劳动的技术。想一想,所有人类劳动都机器取代意味着什么。 这将意味着,生产力发展腾飞,超越任何历史时刻。现有商品和服务的价格全面下降,甚至降到几乎为零。消费者的消费能力将飙升。经济将爆发新的需求。企业家们将创造出令人眼花缭乱的新产业、新产品和新服务,并迅速雇佣尽可能多的工人和 AI 来满足新的需求。 然后 AI 将再次取代劳动力。这个循环会一直重复,推动消费者的消费能力,刺激经济增长,而就业和薪资水平也将水涨船高。这将是一个直线上升的物质乌托邦,这是连亚当·斯密和卡尔·马克思都不敢梦想的新世界。 我们理应如此幸运。
AI 风险 #4:AI 会导致严重的不平等吗?
提到卡尔·马克思,我们不禁会想到 AI 引发的下一个风险,假设 AI 确实会抢走我们的饭碗,那么会不会导致严重的财富不均等,AI 的所有者将获取所有的经济回报,而普通人一无所获? 事实上,这是马克思主义的一个核心主张,即生产资料的所有者(资产阶级)将不可避免地从无产阶级那里窃取所有社会财富。然而,这一理论的问题在于,技术的所有者将 AI 据为己有并不能获益,相反他们会将 AI 卖给尽可能多的客户。对于任何产品来说,最大的市场就是整个世界,80 亿人口。因此在现实中,每一项新技术(即使是那些最初只向高薪大公司或富人出售的稀有技术)都会迅速扩散,直到进入大众市场,普及到地球上每个人的手中。 举一个这类的例子,2006 年伊隆·马斯克公开了他为特斯拉制定的所谓“秘密计划”: 第 1 步,打造 [昂贵] 的跑车; 第 2 步,用这笔钱制造普通大众也能负担得起的汽车; 第 3 步,用这笔钱制造更经济实惠的汽车。 当然,实际上他正是这么做的,结果是他成为了世界上最富有的人。 最后一点是关键。如果马斯克的汽车只卖给富人,他会更富有吗?不会。如果只为自己制造汽车,他会更富有吗?当然不会。他通过向全世界这个最大的市场销售汽车来最大化自己的利润。 简而言之,正如我们过去看到的那样,无论是汽车、电力、收音机、电脑、互联网、手机还是搜索引擎,最终都能进入每个人的手中。此类技术的制造商会非常积极地降低价格,直到地球上的每个人都能负担得起。而如今 AI 的发展也无异于此,这就是为什么你可以低成本使用最先进的生成 AI,甚至可以免费使用微软的 Bing 和谷歌的 Bard,而今后的发展也将遵循这个规律。不是因为这些供应商愚蠢或慷慨,而是因为他们贪婪,他们想要最大化市场规模,从而最大化他们的利润。 因此,现实与技术推动财富集中化相反,技术的个人用户,最终包括地球上的每个人,都将被赋予使用 AI 的权力,并享用 AI 带来的大部分价值。与现有技术一样,构建 AI 的公司也将竞相实现这一目标。 当然,我并不是说我们的社会没有不平等的问题。这个问题确实存在,但并不是由技术导致的。AI 的风险和不平等并不是说 AI 会导致更多的不平等,而是我们不允许利用 AI 来减少不平等。
AI 风险 #5:AI 会助纣为虐吗?
以上,我解释了为什么说经常被提及的 AI 风险中实际上有四个并不是真的:AI 不会苏醒并干掉我们;AI 不会毁灭我们的社会;AI 不会导致大规模失业;AI 不会引发更多的不平等。下面,我们来谈谈第五点,我非常同意的一点:AI 将助纣为虐,帮助坏人做坏事。 从某种意义上说,这是一个“重言式”(逻辑学名词。如果一个公式,对于在任一解释下其真值都为真,就称为重言式,又叫永真式)。科技是一种工具。工具(比如火和石头)可以用来做好事(可用来饭和盖房子),也可以用来做坏事(可用来防火和打人)。任何技术都可以用来做好事,也可以用来做坏事。毫无疑问,AI 也可以降低不法分子作恶的难度。 有些人也许会说,既然如此,我们就应该防患于未然。然而不幸的是,AI 并不是很难获取的物理材料(比如钚)。恰恰相反,它是世界上最容易获得的材料——数学和代码。 网上有数不尽的免费课程、书籍、论文和视频,可供你学习如何构建 AI,而且优秀的开源实现每天都在激增。AI 就像空气,无处不在。我们应该如何逮捕这些不法分子?监视和控制所有的计算机?夺走他们的 GPU? 实际上,我们有两种非常直接的方法可以解决不法分子利用 AI 做坏事的风险,而这些正是我们应该关注的方面。 首先,我们需要制定法律,将利用 AI 做的大多数坏事定为犯罪。从银行偷钱?犯罪。制造生化武器?犯罪。实施恐怖行为?犯罪。我们可以集中精力在力所能及的情况下防止这些罪行,如果无法防范则起诉不法分子。 但是,你可能注意到了,我说我们应该在 AI 辅助犯罪发生之前预防,这种预防难道不是意味着禁用 AI 吗?实际上,我们还有另一种方法可以防止此类犯罪,那就是将 AI 作为防御工具。同样是 AI,到了坏人手里就会变得很危险,而到了好人手里就能变成强大的武器,特别是用于防止坏事做坏事。 例如,如果你担心 AI 会冒充人类或生成虚假视频,那么就可以构建新系统,让人们通过加密签名验证身份和内容的真实性。其实,早在 AI 出现之前,虚假内容就已经存在了。我们不能禁用文字处理器、Photoshop 或 AI,而是应该使用技术来构建一个真正解决问题的系统。 其次,我们应该付出大量努力,将 AI 用于好的、合法的防御目的。我们可以将 AI 用于网络防御、生物防御、追捕恐怖分子,以及其他保护我们自己、社区和家园的安全的一切措施。 当然,政府内外已有很多人在朝着这个方向努力,如果我们能够利用 AI 来防止坏人做坏事,那么充满 AI 的世界将更加安全。
真正的风险在于不以最大的力量和速度追求 AI
AI 真正的风险在于:不以最大的力量和速度追求 AI。 与其因为担心被 AI 干掉、AI 毁灭社会、AI 导致大规模失业、AI 引发更多不平等而惶惶不可终日,不如尽我们所能利用好 AI。 我们应该尽可能快地推动 AI 进入我们的经济和社会,以最大限度地提高经济生产力和人类潜能。
我们需要做什么?
我想提出一个简单的计划:
- 允许大型 AI 公司尽可能快速和积极地构建 AI,但不允许监管俘获,不允许建立受政府保护的垄断联盟。 最大化 AI 技术给予的回报。
- 允许 AI 创业公司尽可能快速和积极地构建 AI。 他们既不应该对抗政府给予大公司的保护,也不应该接受政府的援助。 他们应该公平竞争。 即便这些创业公司没有成功,他们的存在也会不断刺激大公司,无论哪一方获胜,受惠的都是我们的经济和社会。
- 允许开源 AI 自由发展,并与大型 AI 公司和初创公司竞争。 开源不应该有监管障碍。 即便开源无法打败大公司,它们的广泛传播对于世界各地想要学习如何构建和使用 AI 的人来说都是一个福音,而且还可以确保每个有能力的人都可以使用 AI,无论身份如何,也无论拥有多少财富,他们都可以从中受益。
- 为了抵消不法分子利用 AI 做坏事的风险,政府与私营部门应积极参与每个潜在风险领域,利用 AI 最大限度地提高社会的防御能力。 AI 可以成为解决问题的强大工具,我们应该拥抱它。
传奇与英雄
最后,我想通过两段简单的陈述结束本文。 AI 的发展始于 20 世纪 40 年代,与计算机的问世出于同一时期。首篇关于神经网络(如今 AI 的架构)的科学论文发表于 1943 年。在过去的 80 年里,整整几代 AI 科学家出生、上学、工作,直到离世,都没有看到如今我们获得的回报。他们每一个人都是传奇。 如今,越来越多的工程师都在努力让 AI 成为现实,其中许多人都很年轻,可能他们的祖父母甚至曾祖父母也曾参与 AI 的创建,而散布恐惧和末日的言论将他们描绘成了鲁莽的恶棍。不相信他们是鲁莽的恶棍。他们每一个人都是英雄。我和我们公司愿意尽可能多地支持他们,而且我们肯定会百分百支持他们以及他们的工作。
推荐阅读:
▶ 余承东回应高通对华为恢复 5G 芯片供应;ChatGPT 发布重要更新;微软推出免费 AI 入门课|极客头条
评论