前言
在Windows中安装paddle需要先去百度飞桨官网了解安装流程,根据官方发布的版本,主要可以分为CPU版本,和GPU版本,CPU版本安装比较容易,不怎么会产生错误;GPU版本则会因为系统问题、GPU型号问题、CUDA、cuDNN版本问题出现各种问题,我也是在安装过程中遇到了各种奇葩问题,然后才成功安装了GPU版本,在此记录一下整个过程中遇到的问题和解决方案,当然主要还是依靠网络上各位先辈们的分享,才解决了各种问题。
需要下载的安装包有
一、CUDA简介
- CUDA(Compute Unified Device Architecture)是由NVIDIA开发的并行计算平台和编程模型。
它利用了NVIDIA的GPU(图形处理器)来加速计算任务,使得许多复杂的计算任务可以在GPU上并行处理,从而提高计算性能。- CUDA最初是为了加速图形渲染而开发的,但随着时间的推移,它逐渐演变成一种通用的并行计算平台。
- CUDA允许开发人员使用普通的C或C++编程语言编写并行计算程序,并利用GPU的并行计算能力来加速执行。
- 这使得开发人员能够利用GPU强大的计算能力来处理各种类型的任务,包括科学计算、机器学习、深度学习、数据分析等。
二、安装配置
1、本机配置
2、确定CUDA下载版本
- 只有NVIDIA显卡才支持CUDA,如果电脑没有此类显卡,那么不必再进行后面的步骤。
- 打开NVIDIA控制面板,左下角“系统信息”,再点击“组件”,查看当前下卡驱动最高支持的CUDA
-
注:这里我最开始安装的是最高版本,12.5,后开报错,有换成12.1,还是不行,最后安装了11.6,报错的主要问题是,安装好之后使用paddle进行训练,发现只有用CPU才能出结果,用GPU版本则会返回“None”字样,查了网上的资料说CUDA版本太高,可能导致Paddle匹配不成功,我是用Paddle-ocr做的测试,paddleocr识别结果总是为none,但是换成paddle-cpu版本,则paddleocr能识别出正确的结果。当然也有可能是我的NVIDIA显卡比较老,是1060(6G)的型号,可能不太适合最新版本。
系统安装的显卡对应的CUDA - 3、如果使用仪酷LabVIEW AI系列工具包。建议大家安装CUDA11.8以及对应的CUDNN。如果当前驱动低于这个版本,请前往NVIDIA官网,根据自己的显卡型号,下载并安装最新的驱动程序;https://www.nvidia.com/Download/index.aspx
三、下载安装包
1、登录NVIDIA开发者中心,下载CUDA安装包
https://developer.nvidia.com/cuda-toolkit-archive
2、在各版本中找到适合自己的版本,我最初用的12.6由于不兼容等问题,最终选择的是11.6,可以正常运行,通过GPU训练。
四、安装CUDA
1、双击安装包,会先解压CUDA文件,此处的路径是临时解压路径,可以选择磁盘大一点的地方,存放解压文件。
2、选择同意继续安装
3、选择自定义安装
4、四个组件全部选择
5、选择安装地址,我选择为安装在E盘,
✨注意:无论是精简还是自定义,默认文件(CUDA11.8)安装路径为:
CUDA Documentation:
C:\program files\NVIDIA GPU Computing Toolkit\CUDA\v11.8
Samples:
C:\ProgramData\NVIDIA Corporation\CUDA Samples\v11.8
CUDA Development:
C:\program files\NVIDIA GPU Computing Toolkit\CUDA\v11.8
五、 验证CUDA是否安装成功
运行cmd,输入nvcc -V,出现以下界面,则安装成功,我安装了11.6 和12.1 两个版本
nvcc -V
nvidia-smi
六、cuDNN的下载及安装
cuDNN是基于CUDA的深度学习GPU加速库,专门为深度学习算法服务,相当于CUDA的一个补丁。
1、登录cuDNN下载网页(必须注册账号并登录)
https://developer.nvidia.com/rdp/cudnn-archive
2、将解压后的文件夹中的bin、include、lib 三个文件夹,移动到CUDA Development 安装路径下,
与同名文件夹合并。
CUDA Development 默认安装路径:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.6
3、配置环境变量
“此电脑”—右键—属性—高级系统设置—环境变量,
打开环境变量窗口,手动将一下路径添加在path中
E:\Program Files\NVIDIA\CUDA\bin;
E:\Program Files\NVIDIA\CUDA\include;
E:\Program Files\NVIDIA\CUDA\libnvvp;
E:\Program Files\NVIDIA\CUDA\lib
4、下载并配置zlib
下载zlib,下载链接:https://pan.baidu.com/s/1-WIsbZXqLPNTODWvtENRSw?pwd=yiku
解压zlib,将zlibwapi.dll移动到CUDA Development 安装路径下的bin文件夹下,
该bin文件默认
路径:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin
至此CUDA及cuDNN安装并配置完毕。
七、#[cuda、cudnn、zlib 深度学习GPU必配三件套(Windows)
无论用tensorrt,还是onnxruntime部署。这三个都得下载配置,推荐都放到相应的cuda路径里(含dll的文件夹、含lib的文件夹)。
推荐先下载tensorrt或者onnxruntime,这样可以知道所需的cuda、cudnn版本。
zlib
Zlib是cuDNN所需的数据压缩软件库。广泛用于网络协议和文件系统的压缩
八、验证GPU运行的代码
from paddlenlp import Taskflow
from pprint import pprint
# 定义抽取目标的schema
# 这里我们定义了一个schema,用于抽取人物和他们所在的组织
schema = [{"人物": ["姓名"]}, "组织"]
# 创建UIE任务流实例
# 这里我们使用预训练的UIE模型,指定schema,并传入待抽取的文本
ie = Taskflow('information_extraction', schema=schema)
# 待抽取的文本
text = "李彦宏是百度公司的创始人之一。"
# 执行信息抽取
results = ie(text)
# 打印抽取结果
pprint(results)
显示这样为正常可以使用GPU训练