个人使用记录,非最佳实践,仅供参考,不断更新中……
ssh ubuntu@42.42.42.42 # ssh连接,回车后输入密码,以服务器IP为 42.42.42.42 为例。 sudo passwd root # 设置root密码,注意保存,以后使用sudo命令会用到,回车后输入两次密码
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh # 下载安装脚本 bash Miniconda3-latest-Linux-x86_64.sh # 执行安装脚本,过程中需要几处确认 source ~/.bashrc # 重新加载并执行 ~/.bashrc 文件中的命令和设置,使设置立即生效
执行脚本后给出查看协议的提示,这里回车。
一直回车,直到给出是否同意协议的提示,此时输入 yes ,回车。
询问安装地址,这里使用默认地址即可,直接回车。
询问是否设置为进入系统直接激活 base 环境,可根据自己需求选择,我选择 yes,回车。
安装完成
重新加载并执行 ~/.bashrc 文件中的命令和设置,进入 base 环境
conda create -n demo python=3.10 # 新建python环境,其中demo是环境名,指定python版本为3.10 conda activate demo # 激活 demo 环境
当前python版本为 3.12.4,新建python版本为3.10的环境,执行命令,回车。
确认安装列出来的包,此处输入 y,回车。
环境安装完成,执行命令 conda activate demo 激活demo环境,回车。
已进入demo环境,并且python版本为3.10.14
pip install torch
执行命令,默认选择的是腾讯云的镜像,等待下载并安装完成。
安装完成
nvidia-smi
正常显示GPU状态
python # 进入python import torch # 引入 torch torch.cuda.is_available() # 检查cuda是否可用 exit() # 退出python
代码的输出为 True,表示 cuda 可用