Windows 10 安装程序_ubuntu20.04安装cuda

Windows 10 安装程序_ubuntu20.04安装cudaWindows10安装CUDAToolkit10.10.NVCUDA.DLL-NVIDIACUDA10.1.135driver-NVIDIA驱动程序版本NVIDIA控制面板->帮助->系统信息->组件1.CUDAToolkitCUDAToolkithttps://developer.nvidia.com/cuda-toolkitCUDAToolkitDownloadhttps://developer.nvidia.com/

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺



Windows 10 安装 CUDA Toolkit 10.1

0. NVCUDA.DLL – NVIDIA CUDA 10.1.135 driver – NVIDIA 驱动程序版本

NVIDIA 控制面板 -> 帮助 -> 系统信息 -> 组件
在这里插入图片描述

1. CUDA Toolkit

CUDA Toolkit
https://developer.nvidia.com/cuda-toolkit

CUDA Toolkit Download
https://developer.nvidia.com/cuda-downloads

CUDA Toolkit Archive
https://developer.nvidia.com/cuda-toolkit-archive

2. CUDA Toolkit 10.1 original Archive

CUDA Toolkit 10.1 original Archive
https://developer.nvidia.com/cuda-10.1-download-archive-base

CUDA Toolkit 10.1 (Feb 2019), Online Documentation
https://docs.nvidia.com/cuda/archive/10.1/

The checksums for the installer and patches can be found in Installer Checksums.
https://developer.download.nvidia.cn/compute/cuda/10.1/Prod/docs/sidebar/md5sum.txt
For further information, see the Installation Guide for Microsoft Windows and the CUDA Quick Start Guide.
https://docs.nvidia.com/cuda/cuda-installation-guide-microsoft-windows/index.html
https://docs.nvidia.com/cuda/cuda-quick-start-guide/index.html

在这里插入图片描述

3. cuda_10.1.105_418.96_win10.exe

1. Double click cuda_10.1.105_418.96_win10.exe
C:\Users\cheng\AppData\Local\Temp\CUDA
在这里插入图片描述

2. NVIDIA 软件许可协议
在这里插入图片描述

在这里插入图片描述

3. 自定义
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

4. 选择安装位置
在这里插入图片描述

5. NVIDIA 安装程序失败
在这里插入图片描述

在这里插入图片描述

6. 自定义安装选项 – 取消勾选 Visual Studio Integration
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

7. CUDA Samples
C:\ProgramData\NVIDIA Corporation\CUDA Samples\v10.1
在这里插入图片描述

4. nvcc -V

Microsoft Windows [版本 10.0.17763.1158]
(c) 2018 Microsoft Corporation。保留所有权利。

C:\Users\cheng>nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2019 NVIDIA Corporation
Built on Fri_Feb__8_19:08:26_Pacific_Standard_Time_2019
Cuda compilation tools, release 10.1, V10.1.105

C:\Users\cheng>

在这里插入图片描述

5. C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1

在这里插入图片描述

6. 环境变量 -> 系统变量

CUDA_PATH
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1

CUDA_PATH_V10_1
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1

NVCUDASAMPLES_ROOT
C:\ProgramData\NVIDIA Corporation\CUDA Samples\v10.1

NVCUDASAMPLES10_1_ROOT
C:\ProgramData\NVIDIA Corporation\CUDA Samples\v10.1

在这里插入图片描述

7. demo_suite

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite
在这里插入图片描述

Shift + 鼠标右键 -> 在此处打开 Powershell 窗口
在这里插入图片描述

PS C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite> dir


    目录: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite


Mode                LastWriteTime         Length Name
----                -------------         ------ ----
d-----         2020/5/4     21:16                nbody_data_files
d-----         2020/5/4     21:16                oceanFFT_data_files
d-----         2020/5/4     21:16                randomFog_data_files
-a----         2019/2/9     13:57         250880 bandwidthTest.exe
-a----         2019/2/9     13:57         279552 busGrind.exe
-a----         2019/2/9     13:57         200192 deviceQuery.exe
-a----         2019/2/9     13:57         311296 freeglut.dll
-a----         2019/2/9     13:57         229376 glew64.dll
-a----         2019/2/9     13:57        1265664 nbody.exe
-a----         2019/2/9     13:57         552448 oceanFFT.exe
-a----         2019/2/9     13:57         409088 randomFog.exe
-a----         2019/2/9     13:57         224256 vectorAdd.exe


PS C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite>

.\bandwidthTest.exe

PS C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite> .\bandwidthTest.exe
[CUDA Bandwidth Test] - Starting...
Running on...

 Device 0: GeForce GTX 1060 with Max-Q Design
 Quick Mode

 Host to Device Bandwidth, 1 Device(s)
 PINNED Memory Transfers
   Transfer Size (Bytes)        Bandwidth(MB/s)
   33554432                     6343.7

 Device to Host Bandwidth, 1 Device(s)
 PINNED Memory Transfers
   Transfer Size (Bytes)        Bandwidth(MB/s)
   33554432                     6409.8

 Device to Device Bandwidth, 1 Device(s)
 PINNED Memory Transfers
   Transfer Size (Bytes)        Bandwidth(MB/s)
   33554432                     146651.3

Result = PASS

NOTE: The CUDA Samples are not meant for performance measurements. Results may vary when GPU Boost is enabled.
PS C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite>

.\deviceQuery.exe

PS C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite> .\deviceQuery.exe
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite\deviceQuery.exe Starting...

 CUDA Device Query (Runtime API) version (CUDART static linking)

Detected 1 CUDA Capable device(s)

Device 0: "GeForce GTX 1060 with Max-Q Design"
  CUDA Driver Version / Runtime Version          10.1 / 10.1
  CUDA Capability Major/Minor version number:    6.1
  Total amount of global memory:                 6144 MBytes (6442450944 bytes)
  (10) Multiprocessors, (128) CUDA Cores/MP:     1280 CUDA Cores
  GPU Max Clock rate:                            1342 MHz (1.34 GHz)
  Memory Clock rate:                             4004 Mhz
  Memory Bus Width:                              192-bit
  L2 Cache Size:                                 1572864 bytes
  Maximum Texture Dimension Size (x,y,z)         1D=(131072), 2D=(131072, 65536), 3D=(16384, 16384, 16384)
  Maximum Layered 1D Texture Size, (num) layers  1D=(32768), 2048 layers
  Maximum Layered 2D Texture Size, (num) layers  2D=(32768, 32768), 2048 layers
  Total amount of constant memory:               zu bytes
  Total amount of shared memory per block:       zu bytes
  Total number of registers available per block: 65536
  Warp size:                                     32
  Maximum number of threads per multiprocessor:  2048
  Maximum number of threads per block:           1024
  Max dimension size of a thread block (x,y,z): (1024, 1024, 64)
  Max dimension size of a grid size    (x,y,z): (2147483647, 65535, 65535)
  Maximum memory pitch:                          zu bytes
  Texture alignment:                             zu bytes
  Concurrent copy and kernel execution:          Yes with 5 copy engine(s)
  Run time limit on kernels:                     Yes
  Integrated GPU sharing Host Memory:            No
  Support host page-locked memory mapping:       Yes
  Alignment requirement for Surfaces:            Yes
  Device has ECC support:                        Disabled
  CUDA Device Driver Mode (TCC or WDDM):         WDDM (Windows Display Driver Model)
  Device supports Unified Addressing (UVA):      Yes
  Device supports Compute Preemption:            Yes
  Supports Cooperative Kernel Launch:            No
  Supports MultiDevice Co-op Kernel Launch:      No
  Device PCI Domain ID / Bus ID / location ID:   0 / 1 / 0
  Compute Mode:
     < Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >

deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 10.1, CUDA Runtime Version = 10.1, NumDevs = 1, Device0 = GeForce GTX 1060 with Max-Q Design
Result = PASS
PS C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite>

References

CUDA Toolkit
https://developer.nvidia.com/cuda-toolkit

GPU-Accelerated Libraries for AI and HPC
https://developer.nvidia.com/gpu-accelerated-libraries

NVIDIA Developer Tools Overview
https://developer.nvidia.com/tools-overview

CUDA Toolkit Documentation
https://docs.nvidia.com/cuda/

CUDA Installation Guide for Microsoft Windows
https://docs.nvidia.com/cuda/cuda-installation-guide-microsoft-windows/index.html

CUDA Quick Start Guide
https://docs.nvidia.com/cuda/cuda-quick-start-guide/index.html

CUDA Code Samples
https://developer.nvidia.com/cuda-code-samples

An Even Easier Introduction to CUDA
https://devblogs.nvidia.com/even-easier-introduction-cuda/

NVIDIA Developer Blog
https://devblogs.nvidia.com/

Accelerated Computing – Training
https://developer.nvidia.com/accelerated-computing-training

NVIDIA Developer Forums
https://forums.developer.nvidia.com/

Display Driver Uninstaller (DDU)
https://www.wagnardsoft.com/

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/192703.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 线程池学习使用

    线程池学习使用线程池学习使用

    2022年4月23日
    38
  • 计算机基本配置清单表3500,3500元电脑配置清单

    计算机基本配置清单表3500,3500元电脑配置清单3500元电脑配置清单很多游戏发烧友在攒机时搭配了高效能的硬件,可以获得更加畅爽的游戏体验,不过对于普通的用户来说,高性价比的主机就可以满足日常影音及娱乐使用需求,更加亲民的价格也是吸引更多用户的基础,下面我们就为您推荐3500元价位的主机配置,追求性价比的朋友不妨看看。我们首先选择英特尔的i3-4170处理器,这款CPU基于Haswell架构设计,22nm制程,双核心四线程,主频为3.7GHz,…

    2022年7月27日
    9
  • kali Linux开启ssh服务

    kali Linux开启ssh服务目的 本地 xshell 连接 KaliLinux 步骤 1 修改 kaliLinux 的配置文件 vim etc ssh sshd config 进入配置文件去掉 PasswordAuth 前的 号 且后面跟 yes 去掉 PermitRootLo 前的 号 且后面跟 yes 2 开启 ssh 服务 servicesshst 关闭服务查看状态 servicesshst xshel

    2025年9月5日
    6
  • 自学数据挖掘十大算法之AdaBoost「建议收藏」

    自学数据挖掘十大算法之AdaBoost「建议收藏」Adaboost简介:Adaboost(adaptiveboosting)是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。该算法其实是一个简单的弱分类算法提升过程

    2022年5月4日
    45
  • cmap用法,很详细(转)

    http://hi.baidu.com/wei83523408/blog/item/878ebd3b8898d5e115cecb2b.html一、Map的基本知识  映射(Map),又称为字典(Dictionary),是由关键字(Key)及其对应的元素值(Value)所组成的元素单元(Element)的表单式集合。通常,对于Map而言,使用给定的Key,可以迅速地从

    2022年4月3日
    213
  • lede旁路由设置方法

    lede旁路由设置方法lede固件号:2.361.把网络–>接口里面wan口删除2.推荐新建lan口,把原来的lan停用3.新lan口配置:静态地址ipv4地址:主路由地址ipv4子网掩码:255.255.255.0ipv4网关:主路由地址使用自定义的DNS服务器:主路由地址关闭DHCP如果出现访问国内网站巨慢,慢到离谱那种请在旁路由执行以下代码iptables-tnat-IPOSTROUTING-jMASQUERADE并在网络—>防火墙中勾选丢弃无用数据包…

    2022年6月11日
    42

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号