IT商业网-解读信息时代的商业变革
当前位置: 首页 > 电脑 > 正文

AMD发布本地化运行大语言模型公告

2024-03-09 14:56:36     

  AMD公司发布了一项重要公告,用户现在可以在本地化设备上运行基于GPT的大语言模型(LLM),从而构建个性化的AI聊天机器人。

  支持设备

  AMD表示,用户可以在采用AMD新XDNA NPU的Ryzen 7000和Ryzen 8000系列APU上,以及内置AI加速核心的Radeon RX 7000系列GPU设备上本地运行LLM和AI聊天机器人。

  详细步骤

  AMD在公告中提供了详细的运行步骤,例如对于运行70亿参数的Mistral,用户只需搜索并下载“TheBloke / OpenHermes-2.5-Mistral-7B-GGUF”;而对于运行70亿参数的LLAMA v2,则搜索并下载“TheBloke / Llama-2-7B-Chat-GGUF”。

  领先技术

  尽管AMD并非首家推出此类功能的公司,但最近英伟达(NVIDIA)也推出了“Chat with RTX”。这是一个由GeForce RTX 40和RTX 30系列GPU支持的人工智能聊天机器人,采用TensorRT-LLM功能集进行加速,基于本地化数据集提供快速生成的人工智能结果。

  通过AMD的创新举措,用户现在可以在自己的设备上享受到个性化的AI聊天体验,这将为人机交互带来全新的可能性。

免责声明: IT商业新闻网遵守行业规则,本站所转载的稿件都标注作者和来源。 IT商业新闻网原创文章,请转载时务必注明文章作者和来源“IT商业新闻网”, 不尊重本站原创的行为将受到IT商业新闻网的追责,转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:post@itxinwen.com
微信公众号:您想你获取IT商业新闻网最新原创内容, 请在微信公众号中搜索“IT商业网”或者搜索微信号:itxinwen,或用扫描左侧微信二维码。 即可添加关注。
标签:

品牌、内容合作请点这里: 寻求合作 ››

相关阅读RELEVANT