报错:flash_attn_2_cuda.cpython-39-x86_64-linux-gnu.so: undefined symbol
里下载相应的版本安装。
·
在https://github.com/Dao-AILab/flash-attention/releases
里下载相应的版本安装flash-attn
在https://download.pytorch.org/whl/torch/
里下载相应版本的pytorch安装
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)