前置审批-本地LLM运行工具Ollama Windows 预览版推出
最近,本地LLM运转东西 Ollama 推出了 windows 版别。Ollama是一款开源的大型语言模型东西,专注于为用户供给本地化的运转环境,满意个性化的需求。该东西允许用户快速运转Llama2、Code Llama等多种模型,并供给类似于OpenAI的API接口和谈天界面,方便用户布置和使用最新版别的GPT模型。
QQ截图20240220103011.png
下载地址:https://top.aibase.com/tool/ollama-windows-preview
Ollama还支撑热加载模型文件,(前置审批)用户无需重新启动即可轻松切换不同的模型。开始,Ollama首要支撑macOS和Linux系统,但昨天开发者正式推出了Windows版别,使更多用户可以享受到这款东西的便当。
作为一个开源项目,Ollama不仅供给强大的功能,还鼓舞用户自定义和创建他们自己的模型,进一步丰富了其使用场景。