얕고 넓게

[AI] Open-WebUI Development Guide 본문

IT/AI.ML

[AI] Open-WebUI Development Guide

블랙오닉스 2025. 3. 21. 15:03

2025.03.21

내맘대로 수정하기 위해 개발 환경을 그대로 따라해 본다.

https://docs.openwebui.com/getting-started/advanced-topics/development

 

🛠️ Development Guide | Open WebUI

Welcome to the Open WebUI Development Setup Guide! Whether you're a novice or an experienced developer, this guide will help you set up a local development environment for both the frontend and backend components. Let’s dive in! 🚀

docs.openwebui.com

 

git clone https://github.com/open-webui/open-webui.git
cd open-webui

cp -RPp .env.example .env

npm install -> 에러 발생, 버전 문제인듯 (Node Package Manager)
node -v  -> v18.19.1
sudo apt install npm -> 안됨

nvm (Node version manager)설치
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.3/install.sh | bash

nvm -v -> 인식 안되서 터미널 다시 열기
nvm install 22.10
node -v :  22.10.0
npm install
npm run dev
여기까지 Frontend 실행 완료-> localhost:5173 접속해보면 backend가 없다고 나옴

cd backend

conda create --name open-webui python=3.11
conda activate open-webui

anancoda가 없어서 에러 -> 

curl --output anaconda.sh https://repo.anaconda.com/archive/Anaconda3-2022.10-Linux-x86_64.sh

bash anaconda.sh

conda create --name py311 python=3.11
conda activate py311

pip install -r requirements.txt -U -> externally managed environment 에러 발생
pip install --break-system-packages -r requirements.txt

sh dev.sh

curl https://ollama.ai/install.sh | sh

원하는 디렉토리에 설치를 위해서는

wget https://ollama.com/install.sh

vi install.sh

OLLAMA_INSTALL_DIR=".../ollama"로 수정해준다.

https://blog.naver.com/se2n/223573762670

 

우리 회사 GPT 구축하기 : 서버 환경에서 Ollama, Open WebUI, Pipelines를 이용한 LLM과 RAG 기반 GPT 구성 - 1

안녕하세요. 풀스택 이라떼입니다. Latte is Horse 요즘 생성형 AI 업무로 매우 바쁘게 지내고 있습니...

blog.naver.com

 


.local 디렉토리를 잘 못 지워서 인지 conda로 가상환경 만들때 에러가 계속 발생한다.

uv로 설치해본다.

그냥 새로운 개정 추가해서 다시 시작

새로 무언가를 설치하고 명령어를 못찾으면 .bashrc을 다시 source하거나 path를 추가

export PATH="/home/black/llm/anaconda3/bin:$PATH"

# <<< conda initialize <<<

#ollama
export PATH="/home/black/llm/ollama/bin:$PATH"
export PATH="/home/black/.local/bin:$PATH"


export NVM_DIR="$HOME/.nvm"
[ -s "$NVM_DIR/nvm.sh" ] && \. "$NVM_DIR/nvm.sh"  # This loads nvm
[ -s "$NVM_DIR/bash_completion" ] && \. "$NVM_DIR/bash_completion"  # This loads nvm bash_completion
~

 

Frontend, Backend 모두 실행 되었는데 Frontend 페이지에서 Backend가 없다고 나옴

ChaGPT

✅ 해결 방법

1. 백엔드가 실제로 실행 중인지 확인

먼저 백엔드(Uvicorn) 서버가 실행되고 있는지 확인하세요:

bash
복사편집
ps aux | grep uvicorn

또는 브라우저에서 직접 백엔드 주소로 접속해보기:

이 페이지가 열리면, FastAPI 백엔드가 정상 작동 중입니다.


2. 프론트엔드가 백엔드와 연결되도록 설정

프론트엔드가 백엔드의 주소를 올바르게 참조해야 합니다.

Open WebUI는 보통 프론트엔드 개발 서버 (localhost:5173) → 백엔드 API 서버 (localhost:8080) 로 요청을 보냅니다.

하지만, CORS 문제프록시 설정 누락이 있으면 연결 실패합니다.

 

프론트엔드에 파일 수정했지만 똑같음

WARNI [open_webui.main] Frontend build directory not found at '/media/black/llm/open-webui/build'. Serving API only.

에러 메세지 넣었더니 배포용 페이지가 필요하다고 함.

npm run build

open-webui/build 디렉토리가 생기고 백엔드 실행하면 :8080에 알고 있는 open-webui 채팅창이 나옴

'IT > AI.ML' 카테고리의 다른 글

[AI] Open-WebUI: Docker 설치, 지우기, 다시... @Ubuntu  (0) 2025.04.03
[AI] Open-WebUI: Docker 설치 @Windows11  (0) 2025.04.01
[AI] Open-WebUI 설치 방법 정리  (0) 2025.03.19
[AI] GPU 모니터링  (0) 2025.03.12
[AI] Open-WebUI + Pipeline  (0) 2025.03.08