就在刚刚nt 动漫,云揣度打算一哥亚马逊云科技,在大模子这件事儿上搞了波大的——
亚马逊 CEO Andy Jassy躬行站台re:Invent24,发布自家新款 AI 多模态系列大模子,名曰Amazon Nova。
而且是贯串涵盖文本对话、图片生成、视频生成,以致平直吐露一个小成见:
未来咱们不仅要Speech to Speech,更要Any-to-Any!
全体而言,Amazon Nova 系列中的系数模子,均以功能和尺寸来离别。
先来看下新版顶端基础大模子的"文本对话篇",一共包含四个杯型:
Amazon Nova Micro:仅限文本对话,主打一个廉价钱和低蔓延;
Amazon Nova Lite:低资本的多模态大模子,处理图像、视频和文本输入的速率极快。
Amazon Nova Pro:高性能的多模态大模子,精度、速率和资本最好"配方",可处理平素的任务。
Amazon Nova Premier:亚马逊最强多模态大模子,可处理复杂的推理任务,也可用于蒸馏客户定制化的模子。
在现场,Andy 也晒出了 Amazon Nova 在 CRAG、BFCL、VisualWebBench 和 Mind2Web 等Benchmarks上获得的分数。
从获利中不丢丑出,其在检索增强生成(RAG)、函数调用和智能体应用方面具有较好的性能。
据悉,前三者依然上架亚马逊云科技的"模子工场"Amazon Bedrock,而 Premier 版块则将于 2025 年第一季度推出。
咫尺也有一些实测依然流出,举例给 Amazon Nova Pro 一句 Prompt:
Write a summary of this doc in 100 words. Then, build a decision tree.
写一篇 100 字的摘录。然后,构建一个决策树。
啪的一下,截止就出来了:
再如让 Amazon Nova Pro 清醒底下这个统一在一王人的视频:
它给出的谜底是:
The video begins with a view of a rocky shore on the ocean, and then transitions to a close-up of a large seashell resting on a sandy beach.
视频一启动是海洋上的岩石海岸,然后过渡到一个大贝壳躺在沙滩上的特写。
接下来,就是"非文本生成篇",一共包括两款。
Amazon Nova Canvas,主打的是图像生成,用官方的话来说,是达到了" State-of-the-art "(首先进)的水平:
至于视频生成模子,名叫Amazon Nova Reel,给定一张图片和一句话,即可让它动起来:
而接下来 Andy 的一番话,平直让现场不淡定了。
正如咱们刚才提到的,Andy 依然放出了话,Amazon Nova 行将呈现出来的态势是万物皆可生成。
值得细细品尝的少许是,亚马逊云科技在生成式 AI 期间中,先前发布自研大模子并不算最吸睛的那一批。
诚然此前也发布过 Amazon Titan 大模子,但模态上也仅限于文本,更多的元气心灵如故聚焦在了像 Amazon Bedrock、Amazon Q 这么的平台和应用。
而这次,亚马逊云科技却一反常态,以动须相应之势把主流模态全面笼罩,以致一句" Any-to-Any "彰显其洪志。
为何会如斯?
纵不雅整场发布会,透过亚马逊云科技 CEO Matt Garman 的全程先容,约略不错把谜底总结为——
实力是一直有的,仅仅当今客户有需求了。
Matt Garman 初次以 CEO 身份插足 re:Invent
这又该怎样清醒?咱们不竭往下看。
算力再升级,价钱很绚烂
先看实力。
看成云揣度打算一哥,算力是亚马逊云科技的看家才智之一。
与传统云办事厂商不同,其自主研发并优化的专用芯片和数据中心,包括 Graviton 和 Nitro 等私有办事器主机,为及时揣度打算提供解救。
而这一次,从芯片到办事器,基础设施上一系列的更新动作,不错分为三大板块来看——
揣度打算(Compute)、存储(Storage)和数据库(Database)。
在揣度打算层面上,亚马逊云科技先是文书Amazon EC2 Trn2 实例认真可用。
EC2 Trn2 实例接受了第二代 Trainium 芯片(Trainium2),与上一代 Trn1 实例比拟,性能提高显贵。具体来说:
历练速率提高 4 倍:这一性能提高能有用减少模子历练所需时辰,加速企业应用落地;
内存带宽提高 4 倍:更强的数据传输才智不错新生复杂模子对及时数据处理的高条件;
内存容量提高 3 倍:为高参数目模子的运行提供了饱和的揣度打算资源。
此外,Trn2 实例在性价比上比刻下基于 GPU 的 EC2 P5e 和 P5en 实例进步30-40%。
每个 Trn2 实例包含 16 个 Trainium2 芯片,192 vCPUs,2 TiB 的内存,以及 3.2 Tbps 的 Elastic Fabric Adapter ( EFA ) v3 鸠集带宽,这比上一代诽谤了高达 35% 的蔓延。
针对更高性能需求,亚马逊云科技同期推出了Trn2 UltraServer。
这是一种全新的超大鸿沟揣度打算居品,每台 UltraServer 包含 64 个 Trainium2 芯片nt 动漫,并通过高带宽、低蔓延的 NeuronLink互连完了了超卓的性能。
这使得 Trn2 UltraServer 成为历练超大鸿沟基础模子(如生成式 AI、LLM 等)的理念念遴荐。
NeuronLink 是亚马逊云科技私有的鸠集互连时候,它能够将多台 Trainium 办事器组合成一个逻辑上的单一办事器,勾搭带宽可达 2TB/s 的带宽,而蔓延仅为 1 微秒。
它的想象终点稳健散布式深度学习任务,在鸠集通讯上的优化有助于显贵诽谤历练时辰,提高资源应用率。
用官方的话来说就是:
这恰是历练万亿级参数的大型东谈主工智能模子所需要的超等揣度打算平台,很是弥远。
在现场,苹果也来为亚马逊站台,机器学习和东谈主工智能高等总监 Benoit Dupin 示意:
苹果将使用亚马逊云科技的 Trainium2 芯片。
除此以外,在芯片层面上,亚马逊云科技发布了AWS Trainium3 芯片预览版,预测于 2025 年认真推出。
据悉,Trainium3 将接受 3 纳米工艺制造,提供两倍于 Trainium2 的揣度打算才智,并提高 40% 的能效。
在揣度打算(Compute)之后,即是存储(Storage)上的更新。
咱们都知谈,在数据分析和大数据领域,处理和查询大鸿沟数据集的才智至关进攻。
而传统的数据查询方法在处理海量数据时,时时导致性能瓶颈和料理复杂性,影响了企业的数据驱动决策才智。
为此,亚马逊云科技特意推出了Amazon S3 Tables。
Amazon S3 Tables 提供了一种新的存储形势,专为表格数据想象,解救使用 Amazon Athena、Amazon EMR 和 Apache Spark 等流行的查询引擎进行简短查询。
S3 的表存储桶是它的第三种存储桶类型,与现存的通用存储桶和目次存储桶比肩;不错将表存储桶视为一个分析仓库,用于存储具有不同阵势的 Iceberg 表格。
与自料理的表格存储比拟,S3 Tables 不错完了高达 3 倍的查询性能提高和10 倍的每秒事务处理才智,同期提供全托管办事的操犯警果。
色就是色除此以外,元数据(Metadata)也变得越发进攻,举例电话内部有许多像片,恰是因为通过元数据储存数据,当今不错完了用当然谈话很快找到这张像片。
基于这么的需求,亚马逊云科技推出了Amazon S3 Metadata 的预览版。
Amazon S3 Metadata 提供了一种自动化、易于查询的元数据料理形势,这些元数据险些及时更新,匡助用户整理、识别和使用 S3 数据进行业务分析、及时推理当用等。
它解救对象元数据,包括系统界说的详笃信息(如大小和对象开头)以及自界说元数据,允许用户使用标签为对象添加居品 SKU、来去 ID 或骨子评级等信息。
而这些元数据一样也存储在 S3 Tables 之中。
在揣度打算、存储之后,即是基础设施的第三大板块——数据库(Database)。
有道理的少许是,Matt 在现场共享了一张" OR "如故" AND "的图,示意企业在遴荐数据库时多量遭逢的吃力抉择——跨区域一致、高可用性、低蔓延,时时只可 3 选 2。
而亚马逊云科技这次给出的答卷是,都不错有。
这就是新式无办事器散布式数据库Amazon Aurora DSQL,旨在治理传统数据库在膨大性和性能方面的挑战。
Aurora DSQL 结合了传统关系数据库的强一致性和 NoSQL 数据库的散布式膨大才智,提供了以下几个要道上风:
跨区域强一致性和低蔓延:接受了全新的架构,使其能够在多个地舆区域中同期运行,而保合手强一致性。
无尽膨大:能够处理数 TB 到数 PB 级的数据集,适用于任何鸿沟的企业。
超高可用性:提供 99.999% 的可用性,这对于许多需要高可用性和无缝运行的企业级应用至关进攻。
性能优厚:其跨区域的读写操作比 Spanner 快了四倍。
以上即是亚马逊云科技这次在基础设施上的发力了。
新的积木——推理
如果说把基础设施的三大板块视为三块积木,那么接下来,亚马逊云科技在模子层和应用层方面添加了第四块积木——推理(Inference)。
推理是生成式 AI 责任流的中枢,它指的是将已资格练好的模子应用到新数据上,进行预测、生成或推断。
Matt 在会上强调:
推理在 AI 模子的应用中变得尤为进攻,尤其是在处理像大型谈话模子等复杂模子时,推理条件极高的揣度打算才智和低蔓延反馈。
而 Amazon Bedrock 看成亚马逊云科技在模子层的一项 AI 平台办事,先是与咱们上述的基础设施在推理上保合手了同步。
换言之,Inferentia 和 Trainium 芯片提供的推理的硬件优化,用户不错通过 Amazon Bedrock 方便拜访这些资源。
而至于 Amazon Bedrock 自己,这次也迎来多项才智的升级。
当先就是模子蒸馏(Model Distillation),能够自动化创建针对特定用例的蒸馏模子。
主淌若通过从大型基础模子(素质模子)生成反馈,并使用这些反馈来微调较小的基础模子(学生模子),从而完了学问升沉,提高小模子的精准度,同期诽谤蔓延和资本。
其次是多智能体互助(multi-agent collaboration)。
在需要多个智能体处理复杂任务的场景中,料理这些智能体变得具有挑战性,尤其是跟着任务复杂性的增多。
使用开源治理决策的开拓者可能会发现我方需要手动完了智能体编排、会话处理、内存料理等复杂操作。
这也恰是亚马逊云科技在 Amazon Bedrock 上推出多智能体互助的起点。具体特色如下:
快速诞生:无需复杂编码,几分钟内创建、部署和料理协同责任的 AI 智能体。
可组合性:将现存智能体看成子智能体集成到更大的智能体系统中,使它们能够无缝互助以应呈报杂的责任经由。
高效的智能体间通讯:监督智能体不错使用一致的接口与子智能体进行交互,解救并行通讯以更高效地完成任务。
优化的互助阵势:在监督阵势和监督加路由阵势之间遴荐。在路由阵势下,监督智能体将平直将肤浅苦求路由到关连的子智能体,绕过竣工的编排。
终末,亦然更为进攻的少许,即是恶臭大型谈话模子幻觉导致的事实伪善的功能——自动推理查验(Automated Reasoning checks),这是 Amazon Bedrock Guardrails 中新增的一项功能。
这种新的驻防法子,旨在通过数学考据来确保 LLMs 生成的反馈的准确性,并恶臭幻觉导致的事实伪善。
自动推理查验使用基于数学和逻辑的算法考据和推理过程来考据模子生成的信息,确保输出与已知县实一致,而不是基于虚构或不一致的数据。
与机器学习(ML)不同,自动推理提供了对于系统行径的数学保证。
据悉,亚马逊云科技依然在存储、鸠集、臆造化、身份和密码学等要道办事领域使用自动推理,举例,自动推理用于认真考据密码完了的正确性,提高性能和开拓速率。
在性能方面,Bedrock 还推出了低蔓延优化推理,由此,用户不错在使用首先进的大模子基础上,还享受超卓的推感性能。
值得一提的是,Llama 405B 和 Llama 70B 低蔓延优化版块,在亚马逊云科技上展现出特出其他云提供商的出色发达。
还有应用层和其它更新
针对开拓者和企业,亚马逊云科技在应用层上的代表作即是 Amazon Q 了。
针对越来越多的企业寻求从土产货数据中心迁徙到云的痛点,亚马逊云科技在 Amazon Q Developer 上推出了多项新功能。
其中较为引东谈主瞩成见就是Transformation for Windows .NET Applications,这项功能使得企业能够更快速地将 .NET 应用体式迁徙到 AWS,同期还能够显贵诽谤迁徙资本。
Amazon Q 为 .NET 应用体式提供了自动化迁徙器具,能够识别应用体式中可能存在的不兼容问题,生成迁徙揣度打算,况兼自动调遣源代码,确保平滑过渡到云表。这种自动化迁徙大幅提高了工犯警果,减少了东谈主为喧阗。
通过将应用体式从 Windows 迁徙到 Linux,企业能够省俭昂贵的 Windows 许可用度,诽谤 TCO(总领有资本)。
Matt 指出,使用 Amazon Q 的企业能够省俭多达 40% 的许可资本。
而且迁徙速率比传统手动迁徙快了四倍,大大减少了系统迁徙的停机时辰和风险。
除了 Windows 应用的迁徙,亚马逊云科技还推出了 Amazon Q Developer Transformation for VMware Workloads功能,专为运行在 VMware 上的企业责任负载想象。
通过这一器具,亚马逊云科技不错匡助企业将土产货的 VMware 环境迁徙到云平台。
应用层以外,还有诸如将 AI 和分析作念结合的居品—— Amazon SageMaker。
它看成一个不错帮企业加速 AI 应用的开拓、历练和部署的数据科学平台,今天也认真步入了"下一代"。
新一代 SageMaker 的中枢是SageMaker Unified Studio。
这是一个单一的数据和 AI 开拓环境,它整合了 Amazon Athena、Amazon EMR、AWS Glue、Amazon Redshift、Amazon Managed Workflows for Apache Airflow ( MWAA ) 以及现存的 SageMaker Studio 中的器具和功能。
其次是Amazon SageMaker Lakehouse,不错长入 Amazon S3 数据湖、Amazon Redshift 数据仓库和第三方及连结数据源。
亚马逊云科技的" AI 步法"
在看完本届 re:Invent 系数骨子和实力之后,亚马逊云科技在生成式 AI 期间的发展旅途其实也就比较明晰了——
从客户的真确业务需求动身。
上文各样骨子的更新,都是基于"客户的办事出现了什么问题",包括揣度打算、存储、数据库上的瓶颈,包括客户在模子上的遴荐,再包括应用上的迁徙办事等等。
明察了背后的实用主义逻辑,也就不难清醒,亚马逊云科技为何遴荐在这个时辰节点上发布一系列多模态大模子,如故因为客户有需要。
这种需要,具体而言,就是客户在模子上的遴荐,毕竟"莫得一个模子不错一统天地",每个模子都有我方所擅长的领域。
但亚马逊云科技所作念的,是应用我方在基础设施、器具 / 模子和应用三个层面的深耕和实力,给客户多提供了一个"快、好、省"的选项。
追想亚马逊云科技的起步,似乎这少许从未变过。
正如 Matt 在大会上回忆的那样:
亚马逊云科技在 2006 年推出时,初创公司是第一批用户,他们总蛮横常积极地接受新时候,况兼能够提供有价值的反馈。
而这种反馈也进一步激动了亚马逊云科技的发展,也有助于清醒怎样更好地解救创业精神。
因此,Matt 在大会中还文书了一个重磅音问:
将在 2025 年为宇宙的初创公司提供10 亿好意思元的资金解救!
One More Thing
本届 re:Invent 整个6 万东谈主参与,来感受一下这个珍摄、这个 feel~
参考贯串:
[ 1 ] https://www.aboutamazon.com/news/aws/amazon-nova-artificial-intelligence-bedrock-aws
[ 2 ] https://aws.amazon.com/blogs/aws/amazon-ec2-trn2-instances-and-trn2-ultraservers-for-aiml-training-and-inference-is-now-available/
[ 3 ] https://aws.amazon.com/blogs/aws/new-amazon-s3-tables-storage-optimized-for-analytics-workloads/
— 完 —
点这里� � 关注我,难忘标星哦~
一键三连「共享」、「点赞」和「在看」
科技前沿进展日日相逢 ~