技术栈详情
🎨
前端技术
1 项Go (CLI + API Server)
⚙️
后端技术
2 项Go / C++
llama.cpp
底层推理引擎
🤖
AI 技术
1 项多模型支持
Llama 3、Mistral、Qwen2、DeepSeek等100+模型
☁️
基础设施
1 项本地运行
无需云端,完全在用户机器上运行
架构概述
Ollama 技术架构
Ollama是本地运行大语言模型的工具,核心目标是让任何人都能在Mac、Linux或Windows上轻松运行LLM。基于Go语言构建,底层使用llama.cpp作为推理引擎。
架构简洁:一个CLI工具同时提供API服务器(默认端口11434)。支持GGUF格式的量化模型,可以在消费级硬件上高效运行。通过简单的`ollama run llama3`命令即可启动模型。
数据来源
最后更新:2025-02-02 · 数据仅供参考,可能随时间变化