Dataset Viewer
Auto-converted to Parquet Duplicate
en_url
stringlengths
47
153
en_title
stringlengths
12
118
en_content
stringlengths
16
19.4k
zh_url
stringlengths
53
159
zh_title
stringlengths
4
70
zh_content
stringlengths
16
10.5k
https://developer.nvidia.com/blog/ai-for-climate-energy-and-ecosystem-resilience-at-nvidia-gtc-2025/
AI for Climate, Energy, and Ecosystem Resilience at NVIDIA GTC 2025
From mitigating climate change to improving disaster response and environmental monitoring, AI is reshaping how we tackle critical global challenges. Advancements in fast, high-resolution climate forecasting, real-time monitoring, and digital twins are equipping scientists, policy-makers, and industry leaders with data...
https://developer.nvidia.com/zh-cn/blog/ai-for-climate-energy-and-ecosystem-resilience-at-nvidia-gtc-2025/
NVIDIA GTC 2025 上的人工智能促进气候、能源和生态系统复原力
从减缓气候变化到改进灾害响应和环境监测,AI 正在重塑我们应对重大全球挑战的方式。快速、高分辨率的气候预报、实时监控和数字孪生技术的进步为科学家、政策制定者和行业领导者提供了数据驱动的工具,帮助他们了解、规划和应对一个变暖的星球。 在 3 月 17 日至 21 日举行的 NVIDIA GTC 2025 大会上,思想领袖、科学家、开发者和创新者将重点介绍 AI 如何帮助塑造更具可持续性和韧性的未来。以下会议展示了 AI 在气候预测、灾难缓解和保护工作中发挥的作用,帮助社区适应日益不可预测的世界。 加强极端天气预测和灾害响应 随着全球变暖加剧,极端天气事件变得更加严重和频繁,社区需要更快、更精确的自然灾害预测和响应策略。AI 正在改进洪...
https://developer.nvidia.com/blog/automating-gpu-kernel-generation-with-deepseek-r1-and-inference-time-scaling/
Automating GPU Kernel Generation with DeepSeek-R1 and Inference Time Scaling
As AI models extend their capabilities to solve more sophisticated challenges, a new scaling law known as test-time scaling or inference-time scaling is emerging. Also known as AI reasoning or long-thinking , this technique improves model performance by allocating additional computational resources during inference to ...
https://developer.nvidia.com/zh-cn/blog/automating-gpu-kernel-generation-with-deepseek-r1-and-inference-time-scaling/
使用 DeepSeek-R1 和推理时间缩放实现自动化 GPU 内核生成
随着 AI 模型扩展其功能以解决更复杂的挑战,一种称为“ 测试时扩展 ”或“ 推理时扩展 ”的新扩展法则正在出现。该技术也称为 AI 推理 或 长时思考 技术,通过在推理过程中分配额外的计算资源来评估多种可能的结果,然后选择最佳结果 (neural network),从而提高模型性能。这使得 AI 能够以类似于人类剖析复杂问题并单独解决这些问题以达成最终解决方案的方式,制定战略并系统化地解决复杂问题。 在本文中,我们将介绍 NVIDIA 工程师完成的一项实验,他们在推理过程中使用最新的开源模型之一 DeepSeek-R1 模型以及额外的计算能力来解决复杂的问题。该实验旨在自动生成 GPU 注意力内核,这些内核在数值上是正确的,并针对...
https://developer.nvidia.com/blog/ai-foundation-model-enhances-cancer-diagnosis-and-tailors-treatment/
AI Foundation Model Enhances Cancer Diagnosis and Tailors Treatment
A new study and AI model from researchers at Stanford University is streamlining cancer diagnostics, treatment planning, and prognosis prediction. Named MUSK (Multimodal transformer with Unified maSKed modeling), the research aims to advance precision oncology, tailoring treatment plans to each patient based on their u...
https://developer.nvidia.com/zh-cn/blog/ai-foundation-model-enhances-cancer-diagnosis-and-tailors-treatment/
AI 基础模型增强癌症诊断并实现个性化治疗
斯坦福大学研究人员的一项新研究和 AI 模型正在简化癌症诊断、治疗规划和预后预测。这项名为 MUSK (Multimodal transformer with Unified maSKed modeling) 的研究旨在提高精准肿瘤学,根据每位患者独特的医疗数据为其定制治疗计划。 “多模态基础模型是医学 AI 研究的新领域,”放射肿瘤学副教授兼研究高级作者 Ruijiang LI 说。“最近,我们为医学领域开发了视觉语言基础模型,尤其是在病理学领域。但是,现有研究使用的现有基础模型需要配对的图像 – 文本数据进行预训练。尽管我们付出了大量努力,最终打造出 1M 病理图像文本对,但它仍然不足以完全捕捉整个疾病谱系的多样性。” 在考虑患...
https://developer.nvidia.com/blog/cuda-toolkit-12-8-delivers-nvidia-blackwell-support/
CUDA Toolkit Now Available for NVIDIA Blackwell
The latest release of the CUDA Toolkit , version 12.8, continues to push accelerated computing performance in data sciences, AI, scientific computing, and computer graphics and simulation, using the latest NVIDIA CPUs and GPUs. This post highlights some of the new features and enhancements included with this release: N...
https://developer.nvidia.com/zh-cn/blog/cuda-toolkit-12-8-delivers-nvidia-blackwell-support/
CUDA 工具包现已支持 NVIDIA Blackwell 架构
CUDA 工具包 的最新版本 (版本 12.8) 使用最新的 NVIDIA CPU 和 GPU,持续提升数据科学、AI、科学计算以及计算机图形和模拟领域的加速计算性能。本文重点介绍了此版本包含的一些新功能和增强功能: NVIDIA Blackwell 架构支持 CUDA 图形处理条件节点增强功能 用于大语言模型(LLMs)的 Blackwell CUTLASS 内核 NVIDIA Nsight 开发者工具更新 数学库更新 cudaStreamGetDevice 编译器更新 加速 Python 更新 功能齐全的架构 NVIDIA Blackwell 架构支持 CUDA 工具包 12.8 是该工具包的第一个版本,在整个开发者工具套件 (...
https://developer.nvidia.com/blog/recent-posts/
Recent posts
No content found
https://developer.nvidia.com/zh-cn/blog/recent-posts/
最近文章
No content found
https://developer.nvidia.com/blog/high-performance-remote-io-with-nvidia-kvikio/
High-Performance Remote IO With NVIDIA KvikIO
Workloads processing large amounts of data, especially those running on the cloud, will often use an object storage service (S3, Google Cloud Storage, Azure Blob Storage, etc.) as the data source. Object storage services can store and serve massive amounts of data, but getting the best performance can require tailoring...
https://developer.nvidia.com/zh-cn/blog/high-performance-remote-io-with-nvidia-kvikio/
借助 NVIDIA KvikIO 实现高性能远程 IO
处理大量数据的工作负载 (尤其是在云端运行的工作负载) 通常会使用对象存储服务 (S3、Google Cloud Storage、Azure Blob Storage 等) 作为数据源。对象存储服务可以存储和提供海量数据,但要想获得最佳性能,可能需要根据远程对象存储的行为方式调整工作负载。本文适用于希望尽快将数据读或写到对象存储,以便 IO 不会限制工作负载的 RAPIDS 用户。 您对本地文件系统行为方式的一些了解可转换为远程对象存储,但它们本质上是不同的。这两者之间的最大区别 (至少对于数据分析工作负载而言) 可能在于,对象存储上的读取和写入操作具有越来越高的可变延迟。每个存储服务 (AWS、Azure) 都有自己的一套最佳实践...
https://developer.nvidia.com/blog/latest-multimodal-addition-to-microsoft-phi-slms-trained-on-nvidia-gpus/
Latest Multimodal Addition to Microsoft Phi SLMs Trained on NVIDIA GPUs
Large language models (LLMs) have permeated every industry and changed the potential of technology. However, due to their massive size they are not practical for the current resource constraints that many companies have. The rise of small language models (SLMs) bridge quality and cost by creating models with a smaller ...
https://developer.nvidia.com/zh-cn/blog/latest-multimodal-addition-to-microsoft-phi-slms-trained-on-nvidia-gpus/
在 NVIDIA GPU 上训练的 Microsoft Phi SLM 的多模态最新进展
大语言模型(LLMs)已渗透到各行各业,并改变了技术潜力。但是,由于规模庞大,它们对于许多公司目前面临的资源限制来说并不切实际。 小语言模型 (SLMs)的兴起通过创建资源占用更小的模型,将质量和成本联系起来。SLMs 是语言模型的一个子集,这些模型倾向于专注于特定领域,并使用更简单的神经架构构建。随着模型的发展模仿人类感知周围环境的方式,模型必须接受多种形式的多模态数据。 Microsoft 宣布在 Phi 系列中 推出新一代开放式 SLM ,并新增两项功能: Phi-4-mini Phi-4-multimodal Phi-4-multimodal 是第一个加入该系列的多模态模型,接受文本、音频和图像数据输入。 这些模型足够小,可...
https://developer.nvidia.com/blog/building-a-simple-vlm-based-multimodal-information-retrieval-system-with-nvidia-nim/
Building a Simple VLM-Based Multimodal Information Retrieval System with NVIDIA NIM
In today’s data-driven world, the ability to retrieve accurate information from even modest amounts of data is vital for developers seeking streamlined, effective solutions for quick deployments, prototyping, or experimentation. One of the key challenges in information retrieval is managing the diverse modalities in un...
https://developer.nvidia.com/zh-cn/blog/building-a-simple-vlm-based-multimodal-information-retrieval-system-with-nvidia-nim/
使用 NVIDIA NIM 构建基于 VLM 的简单多模态信息检索系统
在当今数据驱动的世界中,即使是从少量数据中检索准确信息的能力,对于寻求精简、有效的快速部署、原型设计或实验解决方案的开发者来说也至关重要。信息检索领域的主要挑战之一是管理非结构化数据集中的各种模式,包括文本、PDF、图像、表格、音频、视频等。 多模态 AI 模型通过同时处理多个数据模式来应对这一挑战,以不同的形式生成连贯一致的全面输出。 NVIDIA NIM 微服务可简化 AI 基础模型 在语言、 计算机视觉 、语音、生物学等领域的安全可靠部署。 NIM 微服务可随时随地部署在 NVIDIA 加速基础设施上,并提供行业标准 API,以快速集成应用和热门 AI 开发框架 (包括 LangChain 和 LlamaIndex)。 本文将...
https://developer.nvidia.com/blog/tag/inference-performance/
Inference Performance
No content found
https://developer.nvidia.com/zh-cn/blog/tag/inference-performance/
Inference Performance
No content found
https://developer.nvidia.com/blog/optimizing-qwen2-5-coder-throughput-with-nvidia-tensorrt-llm-lookahead-decoding/
Optimizing Qwen2.5-Coder Throughput with NVIDIA TensorRT-LLM Lookahead Decoding
Large language models (LLMs) that specialize in coding have been steadily adopted into developer workflows. From pair programming to self-improving AI agents , these models assist developers with various tasks, including enhancing code, fixing bugs, generating tests, and writing documentation. To promote the developmen...
https://developer.nvidia.com/zh-cn/blog/optimizing-qwen2-5-coder-throughput-with-nvidia-tensorrt-llm-lookahead-decoding/
使用 NVIDIA TensorRT-LLM 前瞻性解码优化 Qwen2.5-Coder 吞吐量
专注于编码的 大语言模型(LLMs) 已稳步应用于开发者工作流程。从配对编程到自我改进的 AI 智能体 ,这些模型可帮助开发者完成各种任务,包括增强代码、修复错误、生成测试和编写文档。 为促进开源 LLM 的开发,Qwen 团队最近发布了 Qwen2.5-Coder,这是一系列先进的 LLM,用于跨热门编程语言的代码生成、推理和修复。本文将探讨针对 NVIDIA TensorRT-LLM 支持 的 Qwen2.5-Coder 模型进行推理优化的优势,以及借助 NVIDIA NIM 轻松部署以提升变革潜力和编码效率的好处。 Qwen2.5-Coder 模型 Qwen2.5-Coder 模型在热门的学术基准测试中取得了出色的性能。 NV...
https://developer.nvidia.com/blog/optimize-ai-inference-performance-with-nvidia-full-stack-solutions/
Optimize AI Inference Performance with NVIDIA Full-Stack Solutions
The explosion of AI-driven applications has placed unprecedented demands on both developers, who must balance delivering cutting-edge performance with managing operational complexity and cost, and AI infrastructure. NVIDIA is empowering developers with full-stack innovations—spanning chips, systems, and software—that r...
https://developer.nvidia.com/zh-cn/blog/optimize-ai-inference-performance-with-nvidia-full-stack-solutions/
借助 NVIDIA 全栈解决方案提升 AI 推理性能
AI 驱动的应用的爆炸式发展对开发者提出了前所未有的要求,他们必须在提供先进的性能与管理运营复杂性和成本以及 AI 基础设施之间取得平衡。 NVIDIA 正在为开发者提供涵盖芯片、系统和软件的全栈创新,重新定义 AI 推理 的可能性,使其比以往更快、更高效、更具可扩展性。 轻松部署高吞吐量、低延迟推理 六年前,NVIDIA 着手打造 AI 推理服务器,专为构建高吞吐量、延迟关键型生产应用的开发者而设计。当时,许多开发者都在努力使用定制的、特定于框架的服务器,这些服务器增加了复杂性,增加了运营成本,并且难以满足严格的服务水平协议(service-level agreements)关于延迟和吞吐量的要求。 为解决这一问题,NVIDIA ...
https://developer.nvidia.com/blog/nvidia-tensorrt-llm-now-supports-recurrent-drafting-for-optimizing-llm-inference/
NVIDIA TensorRT-LLM Now Supports Recurrent Drafting for Optimizing LLM Inference
Recurrent drafting (referred as ReDrafter) is a novel speculative decoding technique developed and open-sourced by Apple for large language model (LLM) inference now available with NVIDIA TensorRT-LLM . ReDrafter helps developers significantly boost LLM workload performance on NVIDIA GPUs. NVIDIA TensorRT-LLM is a libr...
https://developer.nvidia.com/zh-cn/blog/nvidia-tensorrt-llm-now-supports-recurrent-drafting-for-optimizing-llm-inference/
NVIDIA TensorRT-LLM 现支持 Recurrent Drafting,实现 LLM 推理优化
Recurrent Drafting (简称 ReDrafter) 是苹果公司为大语言模型 (LLM) 推理开发并开源的一种新型推测解码技术,该技术现在可与 NVIDIA TensorRT-LLM 一起使用。ReDrafter 帮助开发者大幅提升了 NVIDIA GPU 上的 LLM 工作负载性能。 NVIDIA TensorRT-LLM 是一个 LLM 推理优化库,提供了一个易于使用的 Python API 来定义 LLM 和构建 NVIDIA TensorRT 引擎,这些引擎具有顶尖的优化功能,可在 GPU 上高效执行推理。优化功能包括自定义 Attention Kernel、Inflight Batching、Paged KV...
End of preview. Expand in Data Studio

Data Loading zh-cn (china zh) total: 65 articles, human verfication quality.

Downloads last month
49