Skip to content

How to setup with LM Studio

anpigon edited this page May 23, 2024 · 1 revision
  1. https://lmstudio.ai/로 이동하여 운영 체제에 따라 LM Studio 앱을 다운로드합니다.

  2. 다운로드할 모델을 찾습니다.

  3. 'Local Inference Server'로 이동합니다.

  4. 스트리밍을 위해 CORS가 켜져 있는지 확인합니다. 필요한 경우 'Server Port'를 변경합니다.

  5. Start Server 를 클릭하여 서버를 시작합니다.

  6. MAX 챗봇 설정으로 이동하여 Ollama 기본 URL을 입력합니다: http://localhost:1234/v1을 LM Studio API URL에 입력합니다.

Clone this wiki locally