彩客平台-彩客网app-足球彩客网 > 设计资讯 > 设计新闻 >

借助 tensor core gpu、llm和适用于rtx pc 和工作站的工具,nvidia为数百万用户带来生成式ai -彩客平台

时间:2024-01-09 15:10  来源:设计之家  作者:佚名

全新 geforce rtx super gpu、各大oem的ai笔记本电脑为领先的ai平台带来 rtx 加速

美国拉斯维加斯—ces—2024年1月8日—nvidia发布具有高性能生成式ai功能的geforce rtx™ super桌面端gpu,来自oem足球彩客网的合作伙伴的全新ai笔记本电脑,及面向开发者和消费者的全新nvidia rtx™加速的ai应用和工具。

数十年来,nvidia在pc领域一直处于领军地位,现已有超1亿rtx gpu在推动着ai pc时代的发展,nvidia正通过提供工具以提升pc上的生成式 ai体验:nvidia tensorrt™加速用于文本生成图像工作流的热门stable diffusion xl模型、nvidia rtx remix与生成式ai纹理工具、nvidia ace微服务以及更多使用dlss 3帧生成技术(frame generation)的游戏。

此外,nvidia tensorrt-llm (trt-llm) 是一个开源库,可加速和优化最新大语言模型 (llms) 的推理性能,现已支持更多面向pc的预优化模型。本月,nvidia发布由trt-llm加速的chat with rtx技术demo,让ai爱好者能与他们的笔记、文档和其他内容进行交互。

nvidia创始人兼首席执行官黄仁勋表示:"生成式ai是计算史上最重要的平台转变,它将改变包括游戏在内的所有行业。nvidia拥有超过1亿台rtx ai pc和工作站的用户基础,为开发者和玩家提供保证,让他们尽享生成式ai的魔力。”

在 pc 上本地运行生成式ai对于隐私、延迟和成本敏感型应用至关重要。但这需要大量ai系统安装基础,以及合适的开发者工具来调优pc平台的ai模型。

为满足这些需求,nvidia正通过其整个技术栈提供创新,推动新体验,并在现已支持超过 500 款nvidia rtx游戏和应用的ai pc基础上更进一步。

rtx ai pc 和工作站

nvidia rtx gpu能以最高性能运行各种应用,充分释放 pc上生成式ai的潜力。rtx gpu 中的tensor core可显著加速工作和娱乐应用中要求最严苛的ai功能。

今天在 ces 发布的全新 geforce rtx 40 super 系列gpu包括 geforce rtx 4080 super、4070 ti super 和 4070 super,提供出色的 ai 性能。在ai工作负载方面,geforce rtx 4080 super 生成视频的速度比 rtx 3080 ti 快 1.5 倍,生成图像的速度比 rtx 3080 ti 快 1.7 倍。super gpu 的tensor core可提供最高可达 836 ai tops,在游戏、创作和日常工作等方面提供革命性的ai性能。

包括宏碁、华硕、戴尔、惠普、联想、微星等足球彩客网的合作伙伴发布全新 rtx ai 笔记本电脑,为用户带来开箱即用的生成式 ai体验。与使用npu相比,rtx ai笔记本电脑的性能可提升 20-60 倍。

配备rtx gpu的移动工作站可运行nvidia ai enterprise软件,包括tensorrt和nvidia rapids™,用于简化、安全的生成式ai和数据科学开发。每台nvidia a800 40gb active gpu都包含为期三年的nvidia ai enterprise许可证,为ai和数据科学提供理想的工作站开发平台。

用于构建ai模型的全新 pc 开发者工具

为帮助开发者使用 pc 级的性能和显存快速创建、测试和定制预训练生成式 ai 模型和 llm,nvidia于近期发布统一、易用的工具包nvidia ai workbench。

ai workbench 将于本月底推出测试版,提供对hugging face、github 和 nvidia ngc™ 等热门资源库的流畅访问、简化用户界面,使开发者能轻松复制、协作和迁移项目。

项目可扩展到数据中心、公有云或 nvidia dgx™ cloud等任何地方,然后再回到pc 或工作站上的本地 rtx 系统进行推理和轻量定制。

nvidia通过与惠普的合作,将 nvidia ai foundation models and endpoints(包括rtx加速的ai模型和软件开发工具包)集成到惠普ai studio中,这是一个集成化的数据科学平台,从而简化ai模型的开发。这将使用户能跨 pc 和云轻松搜索、导入和部署优化后的模型。

为pc使用场景构建ai模型之后,开发者可使用nvidia tensorrt 对其进行优化,以充分利用 rtx gpu 的tensor core。

最近,nvidia通过tensorrt-llm for windows将tensorrt扩展到基于文本的应用,tensorrt-llm for windows是一个用于加速llm的开源库。tensorrt-llm 最新更新现已发布,将phi-2加入不断增长的 pc 预优化模型列表,与其他backend相比,推理速度提升5倍。

rtx 加速生成式ai为全新 pc 体验提供动力

在ces 2024上,nvidia及其开发者足球彩客网的合作伙伴发布全新生成式ai驱动的 pc 应用和服务,包括:

● nvidia rtx remix,用于创建令人惊叹的经典游戏 rtx 重制版的平台。测试版将于本月底发布,提供生成式ai工具,可将经典游戏中的基本纹理转化物理精准的4k高精度材质。

● nvidia ace 微服务,包括生成式ai驱动的语音和动画模型,使开发者能为游戏添加智能、动态的虚拟数字人物。

● tensorrt 加速stable diffusion xl (sdxl) turbo 和lcm,这是两种最热门的stable diffusion加速方法。与之前最快的实现相比,tensorrt 将这两种方法的性能提升 60%。stable diffusion webui tensorrt 扩展的更新版现在也已发布,包括 sdxl、sdxl turbo、lcm-lora加速以及优化的 lora支持。

● nvidia dlss 3 支持帧生成技术(frame generation),可利用ai将帧率提高到原生渲染的 4 倍,将用于已发布的 14 款全新 rtx 游戏中的十几款游戏中,包括《地平线:西之绝境》(horizon forbidden west)、pax dei和《龙之信条 2》(dragon’s dogma 2)。

● nvidia技术demo "chat with rtx"将于本月晚些时候发布,让ai爱好者使用名为 " 检索增强生成retrieval-augmented generation(rag)"的热门技术,轻松地将pc llm连接到自己的数据。该demo由 tensorrt-llm 加速,使用户快速与自己的笔记、文档和其他内容进行交互。作为开源参考项目,开发者可轻松地在自己的应用中实现相同的功能。

欢迎参加 nvidia在美国拉斯维加斯举行的ces 2024,进一步了解生成式ai的最新突破。

关于nvidia
自1993年成立以来,nvidia (nasdaq: nvda) 一直是加速计算领域的先驱。nvidia 1999年发明的gpu驱动了pc游戏市场的增长,并重新定义了现代计算机图形,开启了现代ai时代,正在推动跨市场的工业数字化。nvidia现在是一家全栈计算公司,其数据中心规模的足球彩客网的解决方案正在重塑整个行业。更多信息,请访问https://nvidianews.nvidia.com/ 。

# # #

媒体咨询:

jade li

nvidia geforce, studio pr

邮箱:[email protected]

猜你感兴趣

最新文章

相关文章

网站地图