皇冠体育寻求亚洲战略合作伙伴,皇冠代理招募中,皇冠平台开放会员注册、充值、提现、电脑版下载、APP下载。

首页科技正文

新2最新网址(www.122381.com):英伟达与AI芯片的未来之战

admin2021-06-2380

新2网址大全

www.122381.com)实时更新发布最新最快最有效的新2网址和新2最新网址,包括新2手机网址,新2备用网址,皇冠最新网址,新2足球网址,新2网址大全。

,

英伟达 GPU 主导着 AI 芯片。不外在GPU这条蹊径上,AI系统有朝一日将破费数亿甚至数十亿美元举行训练――而且,另有其他成本。更多的主体将被清扫在所谓主流之外。而使用更多 GPU 的问题还在于,每次 GPU 数目增添一倍,成本就会增添一倍,环境足迹、碳和污染也会增添一倍。

大量初创公司示意,快速生长的人工智能领域需要新架构,GPU类似一种简朴的语言阻止了人们思索更更庞大的问题,也让AI创新陷入逆境。

随着智能物联网装备最先一场机械对机械的革命,更多的数据集将会流动,所有人的看法都集中在统一件事上――拥有人工智能芯片的未来。 我们仍处于人工智能的早期阶段。

作者 | NICOLE KOBIE

编译 | 吴昕

有一个关于英伟达若何从游戏和图形硬件转向主宰 AI 芯片的虚构故事,它与「猫」有关。

早在 2010 年,现任英伟达首席科学家的比尔・达利 (Bill Dally) 与斯坦福大学前同事、盘算机科学家吴恩达 (Andrew Ng) 共进早餐,那时他正在与谷歌互助一个项目。

「他试图在互联网上寻找猫――他没有那样说,但他就是这样做的,」达利说。

吴恩达在 Google X 实验室从事一个项目,旨在构建一个可以自主学习的神经网络。这个神经网络在 YouTube 上旁观了 1000 万个视频,学会了若何识别人脸、身体和猫―― 但要做到这一点,系统还需要数千其中央处置器。

「我说,『我敢赌博我们可以只用几个 GPU 就可以做到,』」Dally 说。GPU(图形处置单元)专门用于处置更麋集的事情负载,例如 3D 渲染――这使得它们在处置AI方面比CPU更特长。

为此,Dally 求助于现在向导英伟达深度学习研究的 Bryan Catanzaro。他做到了――仅用 12 个 GPU(就搞定了)――这证实训练吴恩达的神经网络识别猫,在处置并行盘算方面,GPU 比 CPU 更快、更有用。

不外,Catanzaro希望人们知道英伟达最先AI方面的起劲并非缘于那次有时的早餐。事实上,在 2008 年加入英伟达之前,他照样伯克利分校的研究生时就一直在为 AI 开发 GPU。

「英伟达在这个市场上的职位并非有时,」他说。

现在英伟达主导了 AI 芯片,这一切的时间和方式似乎并不主要。1993年,黄仁勋与他人确立英伟达,主要收入泉源仍然是图形和游戏显卡,但就在上一个财政年度,数据中央 GPU 销售额已经攀升至 67 亿美元。2019 年,前四大云提供商 AWS、谷歌、阿里巴巴和 Azure 中 97.4%的人工智能加速器中部署了英伟达的图形处置器

Cambrian AI Research 的剖析师 Karl Freund 示意,它占有了人工智能算法训练市场「近 100%」的份额。500 强超级盘算机中近 70% 使用其 GPU。险些所有 AI 里程碑都发生在英伟达的硬件上。吴恩达的 YouTube cat finder、DeepMind 的棋盘游戏冠军 AlphaGo、OpenAI 的语言展望模子 GPT-3 都在 英伟达的硬件上运行。

只管英伟达取得了这样的乐成,但Catanzaro 仍然对一些人的说法感应不满,即英伟达是盲目地从游戏领域进入人工智能领域的。

「我立誓,我读过的险些每一个故事都是这样的:图形处置器恰巧在人工智能方面显示精彩,英伟达通过向新市场出售现有芯片获得了暂时的意外之财,很快它们就会被初创公司取代。」Catanzaro 说。

「但10年来,英伟达在若何进军AI市场方面一直异常注重战略。」

十年已往了,该市场已经成熟,可以举行推翻。越来越多的企业最先使用人工智能来明白他们网络的海量数据,而 *** 则将资金投入深度学习研究以保持领先职位。中美之间的竞争尤为猛烈;德勤剖析师 Costi Perricos 示意,人工智能将成为各国竞争的「下一种超级大国」。与此同时,深度学习模子的规模和庞大性不停增添,需要更多盘算能力。

OpenAI 的 GPT-3,一个可以写出合理文本段落的深度学习系统,就是一个极端的例子,它由 1750 亿个参数组成,这些参数是组成模子的变量。它的盘算成本估量为 460 万美元,往后被具有 1.6 万亿个参数的谷歌语言模子逾越。需要更高效的硬件来处置更多参数和更多数据以提高准确性,同时还要防止人工智能成为更大的环境灾难――丹麦研究职员盘算出,训练GPT-3所需的能量相当于驾驶70万公里的碳足迹。

我们需要更多的人工智能芯片,我们需要更好的人工智能芯片。虽然英伟达的早期事情为 GPU 制造商提供了领先优势,但挑战者正在竞相迎头遇上。

谷歌于 2015 年最先制造自己的芯片;在 2016 年收购 Annapurna Labs 后,亚马逊去年最先将 Alexa 的大脑转移到自己的 Inferentia 芯片上;百度拥有昆仑,最近估值为20亿美元;高通拥有 Cloud AI 100;IBM 正在致力于节能设计。AMD 收购 Xilinx 用于 AI 数据中央事情,Intel 在 2019 年为其 Xeon 数据中央 CPU 添加了 AI 加速;它还收购了两家初创公司,2016 年以 4.08 亿美元收购了 Nervana,2019 年以 20 亿美元收购了 Habana Labs。尚未被抢购的初创公司已经宣布了自己的硬件,在已往几年中,Graphcore、SambaNova、Cerebras、Mythic AI 等公司宣布或试用了 AI 芯片。

我们仍处于人工智能的早期阶段。这些猫是十年前才盘算出来的,而这些初创公司大多只有几年的历史。

随着智能物联网装备最先一场机械对机械的革命,更多的数据集将会流动起来,所有人的看法都集中在统一件事上:拥有人工智能芯片的未来。

Bryan Catanzaro, NVIDIA 副总裁,向导英伟达深度学习研究。

机械学习对事情量差异于其他任何盘算,需要使用欠准确的数字举行大量的数学盘算。传统的高性能盘算(HPC)是将多个系统毗邻在一起,构建超级盘算机来处置庞大的事情负载,如科学模拟或金融建模,需要高精度的数学,使用64位数字(若是不是更高的话)。

「数学运算大部门都很简朴,但有盘算量很大。」人工智能盘算也需要大量的盘算基础设施,但所使用的数学盘算并不准确,数字是16位甚至是8位――这类似于超现实图像和80年月像素化游戏之间的区别。

人工智能芯片是通过编程框架(如谷歌TensorFlow和Facebook的PyTorch)优化以运行机械学习事情负载的处置器。在训练或运行深度学习模子时,AI 芯片纷歧定会完成所有事情,而是作为加速器快速处置最麋集的事情负载。

例如,NVIDIA 的盒装 AI 系统 DGX A100 使用 8个自己的 A100 「Ampere」GPU 作为加速器,但还配备了 128 核 AMD CPU。

人工智能并不新鲜,但我们之前很难使深度学习模子成为可能的盘算能力,这让研究职员不得不守候硬件跟上他们的想法。

「GPU的泛起打开了一扇大门。」另一家制造人工智能芯片的初创公司SambaNova的团结首创人兼首席执行官 Rodrigo Liang示意。

2012年,多伦多大学的研究职员 Alex Krizhevsky 在一年一度的 ImageNet 盘算机视觉挑战赛中击败了其他竞争对手,该挑战赛让研究职员相互竞争以开发可以识别图像或其中物体的算法。Krizhevsky 首次使用由 GPU 驱动的深度学习来击败手工的编码事情。到2015年,所有在ImageNet竞赛中排名靠前的都是使用GPU。

深度学习研究爆炸式增进。英伟达的手艺性能提高了20倍甚至更多,当英国芯片初创公司Graphcore的团结首创人确立公司时,投资人都不见他们。

「我们从风投那里听到的是:『什么是人工智能?』」该公司团结首创人兼首席手艺官西蒙 诺尔斯(Simon Knowles)回忆起2015年去加州追求融资的履历。

「这真的很令人惊讶。」几个月后,也就是2016年头,一切都变了。「那时,每小我私人都热衷于人工智能,」Knowles 说。「然而,他们不喜欢芯片。」新的芯片架构被以为是不需要的,英伟达已经笼罩了整个行业。

GPU、IPU、RPU――它们都用于处置深度学习的数据集,但名称确实反映了架构上的差异。Graphcore的Colossus MK2 IPU与自力运行的处置器是大规模并行的,这种手艺被称为多指令、多数据。

然则,在 2016 年 5 月,谷歌改变了一切,他们宣布已经为人工智能应用开发了自己的芯片,Cerebras 的 Feldman 称之为「虚张阵容的战略决议」。这些被称为张量处置单元 (TPU),旨在与公司的 TensorFlow 机械学习编程框架配合使用。Knowles 示意,此举向投资者发出了一个信号,即新处置器设计可能存在市场。

「突然间,所有的风投都在想:那些疯狂的英国人在那里?」 他说。从那时起,Graphcore 已经筹集了 7.1 亿美元(5.15 亿英镑)。

英伟达的竞争对手辩称,GPU 是为图形而不是机械学习而设计的,只管其壮大的处置能力意味着它们在人工智能义务方面比 CPU 更好,然则,它们的市场主导职位连续这么长时间主要是由于全心优化和庞大的软件层。

「英伟达在隐藏GPU庞大性方面做得异常精彩」Graphcore 团结首创人兼首席执行官Nigel Toon说。

「它之以是有用,是由于他们确立的软件库、框架和优化,使庞大性得以隐藏。对于英伟达来说,这是一项异常艰难的义务。」

然则遗忘GPU吧,人们以为,你可能会重新最先设计一个具有全新架构的AI芯片。有许多可供选择。Google的TPU是专用集成电路(ASIC),专为特定事情负载而设计;Cerebras制造了一个晶圆级引擎,这是一个比任何其他芯片大56倍的庞然大物;IBM和BrainChip以人脑为模子制造神经形态芯片;Mythic和Graphcore都制造了智能处置单元(IPU),只管它们的设计有所差异。另有许多。

Catanzaro以为,许多芯片只是 AI 加速器的变体――任何能提升 AI 的硬件的名称。「我们谈论 GPU、TPU 或 IPU 或其他任何器械,但人们对这些字母过于执着,」他说。

「我们之以是称 GPU 是由于我们所做的事情的历史……但 GPU 一直是关于加速盘算的,人们体贴的事情负载的性子在不停转变。」

任何人都可以竞争这个领域吗?英伟达在焦点基准测试 MLPerf 中占主导职位,MLPerf 是深度学习芯片的黄金尺度,只管基准测试很棘手。

Cambrian AI Research 的剖析师 Karl Freund 指出,MLPerf 是一种由包罗谷歌在内的学术界和行业介入者设计的基准测试工具,现在由谷歌和英伟达主导,但初创公司通常不会费心完成所有事情,由于确立一个系统的成本最好花在其他地方。

NVIDIA确实很穷苦――而且每年都要跨越谷歌的TPU。「谷歌发现晰 MLPerf 来展示他们的 TPU 有多好,」英伟达解决方案架构和工程认真人马克・汉密尔顿( Marc Hamilton)说。「黄仁勋说若是谷歌每次运行MLPerf基准测试时,效果都显示GPU比TPU稍微快一点,那就太好了。」

为了确保它在一个版本的基准测试中压倒一切,英伟达将一台内部超级盘算机从36个DGX盒升级到惊人的96个。这需要重新安装整个系统。为了尽快完工,他们简朴地切断了电缆―― Hamilton 说这是价值100万美元的装备――并把新装备运了进来。这可能有助于突出基准驱动下的疯狂行为,但它也启发了重新设计DGX:当前一代区块现在可以以20个为一组组合,而无需重新布线。

新2最新网址

www.122381.com)实时更新发布最新最快最有效的新2网址和新2最新网址,包括新2手机网址,新2备用网址,皇冠最新网址,新2足球网址,新2网址大全。

为了确保GPU在一个版本的基准测试中压倒一切,英伟达将一台内部超级盘算机从 36 个 DGX 盒升级到了惊人的 96 个。这需要重新布线整个系统。为了足够快地做到这一点,他们简朴地切断了电缆―― Hamilton 说这是价值约 100 万美元的套件――并运送了新装备。这可能有助于突出由基准驱动的疯狂行为,但它也引发了重新设计DGX的:当前的区块现在可以组合为20个组,而不需要重新布线。

在基准测试和超级盘算机方面,您可以随时添加更多芯片。但对于 AI 盘算的另一面――边缘推理――这是一个差其余故事。

一个 NVIDIA SuperPOD,它的机架组成了 Cambridge-1 超级盘算机

英伟达在 2020 年以 400 亿美元的价钱收购了 ARM,这家英国芯片设计公司的架构为全球 95% 的智能手机提供支持,这引起了全天下的关注。

但各界反映纷歧。早已卸去现实职务而只担任ARM股东的ARM团结首创人Hermann Hauser,以为英伟达收购ARM是一场「灾难」,这可能会损坏 ARM 在市场上的中立性。天下各地的羁系机构――欧盟、英国、中国和美国――正在亲热研究该生意。

ARM 设计芯片,将知识产权授权给公司以供其使用。若是 AI 芯片制造商需要用于系统的 CPU,他们可以从 ARM 获得芯片设计允许,并根据他们的规格制造。竞争对手忧郁英伟达控制 ARM 可能会限制这些互助同伴关系,只管黄「明确」示意英伟达会尊重 ARM 的开放模式。

据报道,英国 *** 正在思量对国家平安的任何影响,只管 ARM 现在归日本软银所有,而且中国忧郁 ARM 归一家美国公司所有,这可能意味着其设计在现有限制下被阻止出口到列入黑名单的中国公司。

在 Cerebras,首席执行官 Andrew Feldman 意识到,芯片上的通讯速率很快,但它们之间的通讯速率会变慢――以是为什么不制作一个真正的大芯片,这样你的数据就永远不必脱离? Cerebras Wafer Scale Engine 将 400,000 个内核塞进 46.225 平方毫米。「GPU 有准确的内核,但有错误的通讯架构,」他说。

ARM是芯片的主要设计者,该芯片将在现实天下中应用深度学习――即所谓的边缘推理。这意味着该生意可能对市场形态发生伟大影响;在ARM辅助下,英伟达可以依附其GPU和边缘优势在数据中央领域占有主导职位。

什么是边缘推理?为了训练和应用模子,英伟达壮大、高性能的系统会对数据举行大量处置,但人工智能另有另一种事情量称为推理,这是一项更轻量级的义务,纵然用训练过的模子来注释一些器械――好比,无人驾驶汽车明白摄像头看到的器械,一个智能手机应用程序发现你的脸部边缘,把猫耳朵贴在你的自摄影上,或者一个医学成像模子在扫描中发现癌症的迹象。由于需要伟大的盘算能力,训练是在一个数据中央完成的,但推理可以在两个地方找到。

第一个也在数据中央:当你向 Alexa 或 Siri 提问时,它会被发送回亚马逊和苹果的服务器举行转录和回复。第二个推剃头生在终端用户装备中,例如相机、汽车和智能手机――这被称为边缘盘算。这需要较少的处置能力,但需要快速(没有人愿意守候他们的无人驾驶汽车思索后再决议是否刹车)。

英伟达现在在数据中央方面占有主导职位。它的 A100 处置用于训练的数据,而推理被虚拟化为更小的微型服务器,允许在统一硬件上同时发生 50 个或更多推理事情负载。这对于像 AWS 这样提供 AI 即服务的科技巨头很有辅助,由于多家公司可以使用相同的硬件而没有数据泄露的风险。

在边缘,英伟达有用于无人驾驶汽车的 DRIVE 和用于现场推理的 EGX,但低功耗芯片不是它的传统专长――若是你曾经使用过游戏条记本电脑,你会发现它比Chromebook更需要频仍插电。低功耗芯片是ARM的领域,这也是英伟达斥资400亿美元收购该公司的缘故原由。

谈到人工智能,ARM 的起劲主要集中在两个领域。首先,它正在将软件框架安装到其现有的 CPU 上。对于更麋集的事情负载,它开发了一种称为 Ethos 的神经处置单元 (NPU),用作加速器。ARM 的 IP 产物部总裁 Rene Haas 示意,使用 Ethos-U55 的装备应该很快就会到货,由于获得该设计允许的公司已经生产了芯片。

有了边缘人工智能,语音助手将不再需要将语音上传到 AWS 或苹果服务器举行处置,而是可以凭证内陆智能做出响应。

「它允许事情在靠近源头的地方完成,这在许多方面都有助于提高效率,」Haas 说,并指出将数据往返发送到云会消耗电池电量。

「我们谈论物联网已经很长时间了,但直到现在才实现这一愿景。」英伟达欧洲、中东和非洲区域副总裁戴维・霍根 (David Hogan) 示意, 「正是这种转变是我们收购 ARM 设计的焦点。」

Cambridge-1 超级盘算机受控环境中的手艺职员

当其他人都在烤香蕉面包、狂看Netflix的时刻,英伟达的解决方案架构和工程主管Marc Hamilton 在去年花了许多时间制作了一台价值4000万英镑的超级盘算机,战胜了疫情造成的欠缺,基本上准时组装了Cambridge-1。

英伟达乐高式系统使构建变得加倍容易。8个A100芯片组成了被称为DGX的盘算系统的焦点――这与运行你的条记本电脑的英特尔或AMD芯片之间的关系是一样的。DGX售价19.9万美元,是一 *** 整的人工智能盘算机,具有内存、网络和其他功效,被设计成相对即插即用。Cambridge-1由一排又一排装着20个dgx的金盒子组成,被称为「超级pod」。

Hamilton 说,Cambridge-1 将成为英国最大、最壮大的人工智能超级盘算机,在天下上排名第 30 位(只管排名可能会发生转变)――但它只会在英伟达自己的聚集中排名第五。Cambridge-1 使用 80 个 DGX A100 盒子制作,而最大的 Selene 使用了 560 个盒子。

英伟达在英国制作 Cambridge-1 的部门缘故原由是收购了 ARM,由于收购意味着该公司在英国获得了员工。虽然它不是整体最快的,也不是最大的,然则,Cambridge-1 声称拥有两个第一。

Hamilton 称其为天下上第一台云原生超级盘算机,由于它具有类似于 AWS 的分区功效,让公司可以使用相同的硬件而不会泛起平安破绽或数据泄露的风险。这让 Cambridge-1 有了第二个第一:这是英伟达将向外部互助同伴开放的唯一超级盘算机,让大学和医疗保健巨头 AstraZeneca、Oxford Nanopore 和 GSK 运行自己的深度学习模子。

为什么英伟达要制作自己的超级盘算机?缘故原由之一是它需要用这种工具来吸引最优异的人。早在 2016 年,英伟达还没有超级盘算机,Facebook 和谷歌正在抢购最优异的人工智能研究职员。

「有时刻人才流动并不完全取决于薪酬,」Hamilton 说。「谷歌和 Facebook 拥有数以千计的 GPU 用于运营营业,而且允许AI 研究职员使用这些 GPU。」

SambaNova Systems 的软件界说方式将数据放在首位,用过滤和削减指令取代加法和减法等整数。SambaNova 将其设计称为可重新设置的数据流,这是通过每个「Cardinal」芯片的 1.5TB 内存实现的,其中每个 DataScale SN10-8R 系统中有 8 个内存。

现在,英伟达超级盘算机 Selene 是天下第五大盘算机,仅次于日本一台、中国一台和美国 *** 拥有的两台。Hamilton 说,这意味着若是你是一名想要获得最快 AI 硬件的研究职员,你可以为中国、美国或英伟达事情。中国的目的是到 2030 年成为人工智能的全球向导者,而美国则希望保持其在手艺上的领先职位;人工智能方面已经存在主要事态,但最近两国之间的商业战可能会将其酿成一场军备竞赛。作为一家美国公司,英伟达并没有完全阻止此类问题。

Catanzaro的40人实验室的研究职员开发了可在英伟达自己系统中使用的人工智能,但该实验室还充当系统架构师的「玻璃容器」,可以窥视深度学习模子在未来的事情方式。

「若是你想为未来制造芯片,希望它对未来有用,你必须有能力展望未来最主要的事情负载是什么――它们在盘算上是什么样子,」Catanzaro 说。「若是你搞砸了,你就制造了错误的芯片。」芯片的设计和制造需要数年时间,这种远见是需要的。

虽然现在大多数研究职员现在都在研究 GPU,但开发模子有没有可能脱离GPU呢?「若是开发的模子不再在 GPU 上运行,或者至少不能在 GPU 上运行,会发生什么?」Dally 以为这并非不能能。

「新模子腾飞之前,我们通常已经听说过它并有时机对其举行测试,确保它在我们的 GPU 上运行优越。」他说。

其他人差异意。他们以为 GPU 可能会阻碍深度学习模子施展其所有潜力。「每小我私人都将他们的模子转向当今的手艺,」Cerebras 的 Feldman 说。

「我们最喜悦和最兴奋的事情之一是看到一群正在编写全新模子的客户。」 他说,今年 Cerebras 将展示它所谓的「GPU 不能能完成的事情」的例子――在 GPU 上基本无法完成的事情。

Graphcore 的 Toon 说,研究职员早就告诉他,今天的硬件阻碍了他们。他的同伴Knowles则引用了奥威尔的话,「这就像是一种简朴的语言阻止了人们思索更庞大的问题。」

「有一些想法,例如概率机械学习,仍然被弃捐,由于像 GPU 这样的今天的硬件不允许这种想法继续向宿世长,」Toon 说。「竞争焦点将是英伟达能够以多快的速率生长 GPU,照样会推出新的器械来实现这一点?」

麻省理工学院(MIT)盘算机科学和人工智能实验室(Computer Science and Artificial Intelligence Lab)的研究员尼尔・汤普森(Neil Thompson)在人工智能 *** 上注重到一个趋势,研究职员示意,盘算能力的限制阻碍了他们的模子,限制了他们的选择和数据集,迫使一些人在他们的事情中留下错误,由于他们肩负不起重新运行模子来解决问题。

「这真的很普遍,若是我们要像迄今为止一样实践它,这对于深度学习的未来来说是一个异常大的问题,」他说。

Thompson 和同事剖析了 1,058 篇 AI 论文,发现机械学习的盘算需求远远跨越硬件改善或模子训练效率。在这条蹊径上,系统有朝一日将破费数亿甚至数十亿美元来训练――而且另有其他成本。

「使用更多 GPU 的问题在于,每次 GPU 数目增添一倍,成本就会增添一倍,环境足迹、碳和污染也会增添一倍,」Thompson说。

他以为,仅靠硬件解决方案――无论是来自英伟达照样挑战者――都不足以阻止人工智能创新陷入逆境。相反,我们需要构建更高效的模子并更好地行使我们已有的模子。诸如希罕性之类的想法――忽略数据集中的零以节约盘算――可以提供辅助,由于对数据加倍有条理,只将其与相关参数举行对照。另一个想法是将我们从模子中学到的器械提炼成更轻量级的方程,只运行模子的相关部门而不是大量通用部门。

若是没有这样的起劲,我们将需要更大的数据中央。但人工智能不应该仅限于那些买得起超级盘算机的人。Thompson 说,在从事高端深度学习事情的大学中,「盘算性能力较弱的大学所占比例已经越来越小」。

「仍然有相当多的人可以玩这个游戏,然则随着盘算肩负的增添,玩家的数目越来越少。我们已经到了有些人被清扫在外的境界。」

可以削减成本,这可能是初创公司赢得客户匹敌现有企业的一种方式。AWS 去年将 Habana Labs 的芯片添加到其云中,称这位英特尔拥有的以色列设计师的运行成本降低了 40%。

「为了让 AI 惠及所有人而不仅仅是富人,你确实需要提高性价比。」Habana Labs 首席商务官 Eitan Medina 示意。

人工智能已经存在私见问题,而对硬件的不同等接见加剧了这一问题。「这意味着我们只会看到硬币的一面,」英伟达新兴领域认真人 Kate Kallot 说。

「若是你不思量天下上的大部门人口……我们将若何解决天下各地的挑战?」 她指出团结国的可连续生长目的:许多人工智能研究职员正在将他们的事情转向解决贫困和天气危急等挑战,但这些问题将在很洪水平上影响新兴市场。

除此之外,另有其他挑战。在大盛行时代,处置器的制造一直受到限制,而去年中美之间的商业冲突让人们忧郁,全球芯片工厂主要在亚洲。欧盟(EU)最近答应,到2030年,将生产全球五分之一的高端芯片。芯片设计师大多外包制造――英伟达的芯片是由台 *** 积电(TSMC)制造的――不外,英特尔有自己的代工厂。今年3月,英特尔宣布设计首次在美国开设两家新工厂,为外部设计师生产芯片,这或许会让美国在制造方面拥有更多控制权。

随着这些障碍被战胜,芯片继续进化,人工智能将扩展到触摸一切,就像wifi支持和应用程序被添加到从烤面包机到冰箱的物体上的毗邻浪潮一样。但在未来,智能不仅仅意味着联网,还意味着嵌入人工智能。

「它将无处不在,」ARM的哈斯说。「在未来几年内,它将无处不在地泛起在每一个盘算应用程序中。」

参考链接

网友评论