博客 科技 amd公司:用户可本地化运行llm和ai聊天机器人

amd公司:用户可本地化运行llm和ai聊天机器人

3月7日消息,AMD公司今天发布公告,表示用户可以本地化运行基于GPT的大语言模型(LLM),从而构建专属的AI聊天机器人。

AMD表示用户可以在包括采用AMD新XDNANPU的Ryzen7000和Ryzen8000系列APU,以及内置AI加速核心的RadeonRX7000系列GPU设备上,本地运行LLM和AI聊天机器人。

AMD在公告中详细介绍了运行步骤,例如运行70亿参数的Mistral,搜索并下载“TheBloke/ OpenHermes-2.5-Mistral-7B-GGUF”;如果运行70亿参数的LLAMAv2,搜索并下载“TheBloke/Llama-2-7B-Chat-GGUF”。

AMD并不是第一个这样做的公司,英伟达(NVIDIA)最近也推出了"ChatwithRTX",这是一个由GeForceRTX40和RTX30系列GPU支持的人工智能聊天机器人。它采用TensorRT-LLM功能集进行加速,基于本地化数据集提供快速生成的人工智能结果。

本文来自网络。 授权转载请注明出处:http://www.dreamwu.com/blog/article/pid-22700.html

发表评论

(快捷键:Ctrl+Enter 或 Alt+Enter)
匿名评论时,请补充填写以下信息:
*以下联系方式请至少填写一种:

评论列表(0)

联系我们

联系我们

QQ:2686930

在线咨询: QQ交谈

邮箱: dwu365@126.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

手机访问
手机扫一扫打开网站

手机扫一扫打开网站

返回顶部