rdt2_5090_env for flash_attn-2.8.3+cu12torch2.9cxx11abiTRUE-cp312-cp312-linux_x86_64.whl #18
pengguanjun
started this conversation in
Show and tell
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
1. 更新软件包列表并安装预备工具
在终端中执行:
2. 添加
deadsnakesPPA 并安装 Python 3.12python3.12-venv:用于创建虚拟环境的关键模块python3.12-dev:包含开发头文件,后续某些 Python 包(如通过pip编译的包)可能会用到3. 验证安装
安装完成后,运行以下命令检查:
如果输出
Python 3.12.x则表示安装成功。4. 安装编译工具和依赖库
ur-rtde是一个与 Universal Robots 进行通信的库,它包含需要编译的 C++ 扩展。要成功安装它,你的系统必须安装必要的编译工具链。安装 Boost 开发库(包含头文件和动态链接库),ur-rtde==1.5.6 需要:
5. 创建和激活虚拟环境
6. 设置 CUDA 环境变量
7. 验证 CUDA 安装
检查 nvcc 版本:
输出末尾应显示 "release 12.8, ..."
8. 安装 PyTorch 和 Flash Attention
从 PyTorch 官网 获取安装命令:
在 Python 中检查 PyTorch 使用的 CUDA 版本:
python3.12 -c "import torch; print(torch.version.cuda)"从 Flash Attention GitHub Releases 下载并安装:
9. 安装其他依赖
10. 验证 transformers 版本
确保安装了正确版本的 transformers (4.51.3):
pip list | grep transformers11. 部署到 Franka Research 3 的额外依赖
注意事项
franka_research_3.txt 调整建议
以下是
franka_research_3.txt文件可能需要包含的包:Beta Was this translation helpful? Give feedback.
All reactions