返回首页
Ollama

Ollama

本地运行大语言模型的一键工具,支持Llama、Mistral等

免费Ollama 0.x
官方网站 发布者:Ollama (Jeffrey Morgan) · 美国浏览量:8.7w
Ollama 截图1

技术栈详情

🎨

前端技术

1 项
Go (CLI + API Server)
⚙️

后端技术

2 项
Go / C++
llama.cpp

底层推理引擎

🤖

AI 技术

1 项
多模型支持

Llama 3、Mistral、Qwen2、DeepSeek等100+模型

☁️

基础设施

1 项
本地运行

无需云端,完全在用户机器上运行

架构概述

Ollama 技术架构

Ollama是本地运行大语言模型的工具,核心目标是让任何人都能在Mac、Linux或Windows上轻松运行LLM。基于Go语言构建,底层使用llama.cpp作为推理引擎。

架构简洁:一个CLI工具同时提供API服务器(默认端口11434)。支持GGUF格式的量化模型,可以在消费级硬件上高效运行。通过简单的`ollama run llama3`命令即可启动模型。

标签

开源本地LLMOllama模型运行时

数据来源

GitHub
查看
官方
查看

最后更新:2025-02-02 · 数据仅供参考,可能随时间变化