本文详细介绍如何在Debian或Ubuntu服务器上搭建本地AI服务器。通过安装Ollama和WebUI,用户可以获得完全私密的AI服务,既保护隐私又减少对电网的依赖。文章涵盖了从Docker安装到Ollama配置,再到WebUI部署的完整流程。最终用户可以通过Web浏览器或专用AI客户端访问本地AI服务,实现局域网内的AI查询功能。