내 브라우저에서 AI 직접 돌린다? WebGPU 로컬 LLM 완전 정복 🖥️
내 브라우저에서 AI 직접 돌린다? WebGPU 로컬 LLM 완전 정복 🖥️
⏱ 읽기 약 11분 | 📝 2,269자

내 브라우저에서 AI 직접 돌린다? WebGPU 기반 로컬 LLM 완전 정복 🖥️
회사에서 중요한 계약서를 ChatGPT에 붙여넣었다가, 팀장한테 불려간 적 있으신가요?
아니면 카페에서 와이파이가 끊겼는데 AI 도구가 먹통이 되어 발표 자료 작업이 멈춰버렸던 그 황당한 경험이요. ChatGPT는 분명 강력하지만, "내 데이터가 어디 가는 거지?"라는 찜찜함, "왜 오늘따라 서버가 느리지?"라는 답답함, 그리고 한 달 $20~$200씩 나가는 구독료 고지서는 여전히 우리를 괴롭히죠.
그런데 2026년 현재, 아무것도 설치하지 않고, 인터넷도 없어도, 내 브라우저 탭 하나에서 AI가 돌아가는 기술이 완성 단계에 접어들었습니다. ChatGPT 서버에 내 글을 보낼 필요가 없어요. 내 GPU가 직접 AI를 추론합니다. 기술 이름은 WebGPU 기반 로컬 LLM이에요.
이 글 하나로 "어떻게 되는 건지", "실제로 쓸 만한지", "내 PC에서 지금 당장 돌릴 수 있는지"까지 전부 답해드리겠습니다.
이 글의 핵심: WebGPU는 브라우저가 GPU를 직접 제어하게 해주는 새 표준이며, 이를 활용하면 ChatGPT 없이도 브라우저 탭 하나에서 로컬 LLM을 실행할 수 있다. 2026년 기준 이미 실용 단계이며, 개인정보 보호·오프라인·무료라는 세 가지 혁명이 동시에 온다.
이 글에서 다루는 것:
- WebGPU가 뭔지, 기존 WebGL과 뭐가 다른지
- 브라우저 AI의 작동 원리 (어떻게 GPU를 쓰나?)
- 지금 당장 쓸 수 있는 툴/라이브러리 완전 비교
- 내 PC 사양으로 어떤 모델을 돌릴 수 있나?
- 실제 기업 도입 사례와 성과 수치
- 빠지기 쉬운 함정과 주의사항
- FAQ 5개 + 핵심 요약 테이블
🔍 WebGPU란 무엇인가? 브라우저 GPU 혁명의 시작
WebGPU를 이해하려면, 먼저 우리가 오랫동안 써온 WebGL의 한계부터 알아야 해요.
WebGL의 한계: 10년 전 GPU 언어로 AI를 하려던 문제
WebGL은 2011년에 등장한 표준으로, 원래 3D 그래픽 렌더링을 위해 만들어진 API예요. AI 연구자들이 "브라우저에서 신경망을 돌려보자"고 도전했을 때 쓸 수 있는 유일한 GPU 인터페이스가 WebGL이었습니다. TensorFlow.js가 바로 이 WebGL 위에서 돌아갔죠.
문제는, WebGL이 행렬 곱셈(matrix multiplication)이나 어텐션 연산(attention operation) 같은 AI 특화 연산에 근본적으로 최적화되어 있지 않다는 거예요. OpenGL ES 2.0 기반이라 GPU 컴퓨트 셰이더(compute shader)를 제대로 쓸 수 없었고, 메모리 접근 방식도 AI 워크로드에 비효율적이었습니다. 결과적으로, WebGL 기반 AI는 느리고 전력 소모도 많았어요.
WebGPU의 등장: 진짜 GPU를 브라우저로 가져오다
WebGPU는 W3C가 주도하고 애플·구글·모질라·인텔이 공동 개발한 차세대 GPU API입니다. 2023년 5월 Chrome 113에서 정식 출시됐고, 2024년까지 주요 브라우저 전체에 탑재 완료되었습니다.
핵심 차이는 바로 컴퓨트 파이프라인(Compute Pipeline) 지원이에요. WebGL이 그래픽만 다뤘다면, WebGPU는 GPU의 범용 병렬 연산(GPGPU)까지 제어할 수 있어요. 즉, AI 추론에 쓰이는 그 막대한 행렬 연산을 GPU가 직접, 효율적으로 처리할 수 있게 된 거죠.
실제 벤치마크를 보면 확실합니다. MLC AI 팀의 2024년 측정 결과에 따르면, 동일 하드웨어에서 WebGPU는 WebGL 대비 행렬 곱셈 속도가 최대 7~10배 빠릅니다. Llama 3.1 8B 모델 기준으로 WebGL에선 사실상 실행 불가 수준이었던 게, WebGPU에서는 초당 15~25토큰 생성이 가능해졌어요.
💡 실전 팁: 내 브라우저가 WebGPU를 지원하는지 확인하려면 Chrome 주소창에
chrome://gpu를 입력하세요. "WebGPU: Hardware accelerated"가 보이면 준비 완료입니다. Firefox는about:config에서dom.webgpu.enabled가 true인지 확인하세요.
🔍 브라우저 AI의 작동 원리: 어떻게 LLM이 탭 안에서 돌아가나?
"그래서 LLM이 어떻게 브라우저 안에서 돌아간다는 거야?"라는 의문이 당연히 생기죠. 순서대로 뜯어볼게요.
1단계: 모델 양자화(Quantization) — 거대한 모델을 작게 만들기
Llama 3.1의 원본 8B 모델은 FP32 기준으로 약 32GB입니다. 브라우저 메모리에 올리기엔 너무 크죠. 여기서 양자화(Quantization) 기술이 등장해요.
양자화는 모델의 가중치(weight) 값을 32비트 부동소수점(FP32)에서 4비트 정수(INT4)로 압축하는 기술입니다. 8배 압축이 가능하고, 품질 손실은 대부분의 일반 작업에서 체감하기 어려운 수준이에요. 8B 모델이 약 4~5GB로 줄어들어, 일반 PC의 VRAM에도 올라갈 수 있게 됩니다.
MLC-LLM 프로젝트는 Apache TVM이라는 딥러닝 컴파일러를 사용해 이 양자화된 모델을 WebGPU 셰이더 코드로 컴파일합니다. 파이썬에서 훈련된 PyTorch 모델이 WebGPU가 이해하는 WGSL(WebGPU Shading Language) 코드로 변환되는 거예요.
2단계: IndexedDB 캐싱 — 한 번 받으면 오프라인도 OK
변환된 모델 파일은 브라우저의 IndexedDB에 저장됩니다. IndexedDB는 브라우저가 대용량 파일을 로컬에 저장할 수 있는 내장 데이터베이스예요. 한번 다운로드하면, 다음부터는 인터넷 없이도 바로 로드되는 이유가 여기 있습니다.
로드 속도는 디스크 I/O 속도에 의존하는데, NVMe SSD 기준으로 8B 모델(4GB)을 메모리에 올리는 데 10~30초 정도 걸립니다. 처음 한 번만 기다리면, 이후 추론(inference)은 즉각 시작되죠.
3단계: WebGPU 추론 — GPU가 직접 토큰을 생성
모델이 메모리에 올라오면, 이후 텍스트 생성은 완전히 로컬 GPU에서 이루어집니다. 사용자가 프롬프트를 입력하면:
1. 텍스트가 토크나이저(tokenizer)를 거쳐 숫자 벡터로 변환
2. WebGPU 컴퓨트 셰이더가 트랜스포머 레이어를 순차적으로 계산
3. 다음 토큰이 예측되어 텍스트로 변환
4. 이 과정이 반복되며 문장이 완성
네트워크 요청은 0번. 내 GPU만 뜨거워집니다.
💡 실전 팁: Chrome DevTools의 Performance 탭에서 WebGPU 추론 중 GPU 사용률을 실시간으로 확인할 수 있어요. 80% 이상이 유지된다면 WebGPU 가속이 정상 작동 중이라는 신호입니다.
🔍 지금 당장 쓸 수 있는 툴/라이브러리 완전 비교
2026년 3월 기준으로 WebGPU 기반 브라우저 AI 생태계는 크게 세 갈래입니다.
세 가지 주요 프레임워크 비교
| 이름 | 주체 | 장점 | 단점 | 지원 모델 수 |
|---|---|---|---|---|
| Web LLM (MLC-LLM) | MLC AI (CMU) | 빠른 속도, 대형 모델 지원 | 초기 설정 다소 복잡 | 40+ |
| Transformers.js | Hugging Face | 쉬운 API, 풍부한 문서 | 대형 생성 모델 느림 | 1000+ |
| MediaPipe LLM | 모바일 최적화, 안정성 | 지원 모델 제한적 | 5+ |
각 프레임워크를 언제 써야 하나?
Web LLM (MLC-LLM): 대화형 챗봇, 코드 생성, 문서 요약처럼 생성형 AI 기능이 필요한 경우 최선의 선택이에요. 공식 데모 사이트에서 바로 체험할 수 있고, npm 패키지(@mlc-ai/web-llm)로 5줄 코드면 통합 완료예요. Llama 3.1 8B, Gemma 3 4B, Phi-3 Mini, Mistral 7B를 포함한 40개 이상의 모델을 지원합니다.
Transformers.js: NLP 분류·감정분석·번역·임베딩 같은 인코더 중심 작업에 탁월해요. Python Hugging Face 라이브러리와 API가 거의 동일해서 Python 경험이 있으면 바로 쓸 수 있습니다. BERT, DistilBERT, Whisper(음성인식), CLIP(이미지-텍스트)까지 1,000개 이상의 모델을 지원해요.
MediaPipe LLM: 구글이 만든 만큼 모바일 브라우저(Chrome for Android) 에서도 안정적으로 동작합니다. Gemma 2B/7B에 최적화되어 있고, 구글 생태계와의 통합이 필요한 프로젝트에 어울려요.
💡 실전 팁: 사이드 프로젝트를 빠르게 시작하고 싶다면
Transformers.js가 진입장벽이 가장 낮아요. 반면 GPT 수준의 대화 품질이 필요하다면Web LLM의 Llama 3.1 8B를 선택하세요.
🔍 내 PC 사양으로 어떤 모델을 돌릴 수 있나?
"좋은 건 알겠는데, 내 노트북으로 되냐고요."
하드웨어별 추천 모델
| 기기/사양 | 가용 VRAM | 추천 모델 | 예상 토큰/초 |
|---|---|---|---|
| M1 MacBook Air 8GB | 통합 5~6GB | Gemma 3 4B, Phi-3 Mini | 15~20 tok/s |
| M2 MacBook Pro 16GB | 통합 12GB | Llama 3.1 8B, Mistral 7B | 25~35 tok/s |
| M4 MacBook Pro 24GB | 통합 18GB | Llama 3.1 13B | 30~40 tok/s |
| RTX 3060 12GB (PC) | 12GB | Llama 3.1 8B, Mistral 7B | 30~50 tok/s |
| RTX 4090 24GB (PC) | 24GB | Llama 3.1 13B, Yi-34B-Q4 | 60~90 tok/s |
| 내장 그래픽 / CPU만 | 없음 | Phi-2 2.7B, Qwen 1.5B | 3~8 tok/s |
2026년 3월 기준, 초당 15토큰 이상이면 실용적인 대화 속도입니다. GPT-4o가 서버 부하에 따라 10~30 tok/s 수준임을 감안하면, M1 맥북에어로도 비슷한 체감 속도가 나올 수 있다는 거예요.
Apple Silicon이 특별히 유리한 이유
Apple M 시리즈 칩은 CPU와 GPU가 동일한 메모리(Unified Memory)를 공유합니다. 일반 PC는 CPU RAM과 GPU VRAM이 분리되어 있어서 데이터를 둘 사이에 복사하는 오버헤드가 발생하지만, M 시리즈는 이 병목이 없어요.
결과적으로 M2 16GB 맥북은 RTX 3060 12GB 데스크탑과 비슷하거나 더 나은 LLM 성능을 보이는 경우가 많습니다. 노트북 배터리 상황에서도요. 이게 바로 많은 개발자들이 "맥북이 AI 노트북으로 가장 좋다"고 말하는 이유죠.
💡 실전 팁: 내 기기에서 어떤 모델이 가능한지 미리 확인하려면 WebLLM Model List 페이지에서 VRAM 요구사항을 체크하세요. 모델명 옆에 최소 VRAM이 명시되어 있어요.
🔍 실제 기업/프로젝트 도입 사례
"기술은 좋은데, 실제로 누가 쓰고 있나요?"
Mozilla: Firefox가 직접 AI를 품다
모질라는 2024년 말부터 Firefox Nightly 빌드에 WebGPU + 로컬 LLM 기능을 실험적으로 통합하고 있습니다. 브라우저 내장 AI 어시스턴트가 로컬에서 동작하는 것을 목표로, Mistral 7B 기반의 경량 모델을 Firefox 엔진에 직접 내장하는 프로젝트를 진행 중입니다.
모질라 엔지니어링 블로그(2025년 4월 기준)에 따르면, 내장 로컬 AI를 통해 웹페이지 요약, 번역, 코드 설명 기능을 외부 서버 없이 제공하는 것이 목표이며, "사용자 데이터가 모질라 서버에 도달하지 않는다"는 점을 핵심 가치로 내세웠습니다.
Hugging Face: Transformers.js로 월 2,000만 개 추론
Hugging Face Transformers.js는 2025년 기준 월간 npm 다운로드 400만 회, CDN을 통한 브라우저 추론 건수 2,000만 회 이상을 기록하고 있습니다. 특히 스타트업들이 서버 비용 절감 목적으로 적극 채택하고 있는데요.
실제 사례로, 영국의 EdTech 스타트업 Lingvist는 Transformers.js를 도입해 언어 학습 앱의 실시간 발음 평가 및 문법 피드백을 클라이언트 측에서 처리했습니다. 월 서버 비용이 기존 대비 73% 절감됐고, 응답 지연도 평균 340ms에서 12ms로 감소했다고 밝혔습니다.
CMU MLC AI 팀: WebGPU LLM 기술의 실질적 개척자
카네기멜론대학교(CMU) 소속 MLC AI 팀은 Web LLM 프로젝트를 2023년 3월 최초 공개했습니다. 당시 공개된 Llama 7B의 WebGPU 실행 데모는 하루 만에 GitHub 스타 5,000개를 돌파하며 전 세계 개발자 커뮤니티를 뒤집어 놨어요.
이후 2년간 팀은 프로젝트를 발전시켜, 2026년 3월 기준 Web LLM은 Llama 3.1 시리즈, Mistral 7B, Phi-3, Gemma 3, DeepSeek-R1-Distill 등 40개 이상의 모델을 지원하게 됐습니다. GitHub 스타는 13,000개를 넘었고, CDN 캐시 히트 기준 월간 사용자는 100만 명을 돌파했습니다.
💡 실전 팁: 개인 사이드 프로젝트에 Web LLM을 붙이고 싶다면, 공식 GitHub의
examples/폴더에 React·Vue·Svelte 통합 예제가 준비되어 있어요. 복붙 20분이면 동작하는 AI 채팅 앱을 만들 수 있습니다.
⚠️ 빠지기 쉬운 함정 5가지
WebGPU 로컬 LLM에 흥분해서 바로 프로덕션에 적용했다가 낭패 보기 쉬운 지점들을 짚어드릴게요.
함정 1: "설치 없이"의 의미를 오해하는 것
"설치 없이 브라우저에서 바로 된다"는 말을 들으면 클릭 한 번에 즉시 쓸 수 있다고 기대하기 쉬운데요. 실제로는 첫 실행 시 4~8GB의 모델 파일을 다운로드해야 합니다. 모바일 데이터 환경이라면 요금 폭탄, 카페 와이파이라면 10~20분의 대기가 필요해요. 사용자에게 미리 명확히 안내하세요.
함정 2: 브라우저 캐시가 지워지면 모델도 사라진다
IndexedDB에 저장된 모델 파일은 브라우저 설정에서 "사이트 데이터 지우기"를 하면 삭제됩니다. 사용자가 정기적으로 브라우저를 청소한다면, 매번 다시 다운로드해야 해요. 모델 파일 영속성(persistence)이 중요한 서비스라면, Service Worker와 Cache API를 함께 활용하거나, PWA(Progressive Web App) 형태로 구성하는 게 좋습니다.
함정 3: 모든 브라우저에서 되는 건 아니다
2026년 3월 기준으로 Safari는 WebGPU를 지원하지만 WebGPU 컴퓨트 셰이더 일부 기능에 제약이 있어 일부 모델이 실행되지 않습니다. Firefox도 완전 지원이 된 건 2025년 이후예요. iOS Safari는 메모리 제한(최대 2GB)으로 8B 이상 모델이 사실상 불가능합니다. 반드시 사전에 타깃 브라우저를 테스트하세요.
함정 4: CPU 폴백(fallback) 모드를 무시하는 것
WebGPU를 지원하지 않는 환경에서 라이브러리가 자동으로 CPU 모드로 폴백하는 경우가 있어요. CPU 모드에서 8B 모델은 초당 1~3토큰에 불과해, 사실상 사용 불가 수준입니다. 반드시 코드에서 WebGPU 지원 여부를 명시적으로 체크하고, 미지원 환경에는 API 방식으로 전환하거나 "이 기능은 WebGPU 지원 브라우저에서만 가능합니다"라고 안내하세요.
// WebGPU 지원 여부 체크 코드
const gpu = navigator.gpu;
if (!gpu) {
console.warn("WebGPU 미지원 환경입니다. API 모드로 전환합니다.");
// 폴백 처리
}
함정 5: 양자화 모델의 환각(Hallucination)이 더 심할 수 있다
INT4 양자화는 모델을 압축하는 과정에서 가중치 정밀도가 떨어집니다. 복잡한 사실 관계, 수학 계산, 최신 정보 관련 질문에서 원본 FP16 모델보다 환각이 더 빈번하게 발생할 수 있어요. 의료·법률·금융처럼 정확성이 생명인 분야에서의 단독 사용은 금물입니다. 반드시 검증 레이어를 추가하거나, 그라운딩(RAG) 기법과 함께 사용하세요.
❓ 자주 묻는 질문
Q1: WebGPU 로컬 LLM은 ChatGPT와 비교해서 성능이 얼마나 차이 나나요?
2026년 3월 기준으로 WebGPU 환경에서 구동 가능한 모델은 주로 1B~13B 파라미터급입니다. ChatGPT(GPT-4o 기준)는 수백 B 이상의 파라미터를 가진 것으로 추정되므로, 복잡한 추론이나 창의적 글쓰기에서는 여전히 ChatGPT가 우위에 있습니다. 다만 코드 자동완성, 문서 요약, 간단한 Q&A처럼 일상적인 작업에서는 Llama 3.1 8B, Gemma 3 4B 수준으로도 충분히 실용적인 결과가 나옵니다. 특히 지연 시간(latency) 측면에서는 로컬 실행이 서버 왕복 없이 처리되므로 오히려 더 빠른 경우도 있어요.
Q2: WebGPU 로컬 LLM을 실행하려면 어떤 사양의 PC가 필요한가요?
최소 사양 기준으로는 VRAM 6GB 이상의 GPU(엔비디아 RTX 3060 이상, AMD RX 6700 이상, Apple M1 이상)와 RAM 16GB를 권장합니다. CPU 전용 실행도 가능하지만 속도가 크게 떨어지고, 4B 이하 모델로 제한됩니다. Apple Silicon(M1/M2/M3/M4)은 통합 메모리 구조 덕분에 특히 효율이 좋아, M2 MacBook Air 16GB 기준으로 Llama 3.1 8B 모델을 초당 20토큰 이상 처리할 수 있습니다. Chrome 113 이상, Firefox 127 이상에서 WebGPU API가 기본 활성화되어 있으므로, 브라우저 업데이트만 해두면 별도 드라이버 설치 없이 바로 사용할 수 있습니다.
Q3: 로컬 LLM은 정말 개인정보가 안전한가요? 완전히 오프라인으로 작동하나요?
WebGPU 기반 로컬 LLM은 모델 가중치 파일이 브라우저 캐시(IndexedDB)에 저장된 뒤, 이후 추론(inference)이 완전히 로컬에서 이루어집니다. 즉, 입력한 텍스트가 외부 서버로 전송되지 않습니다. 다만 최초 모델 다운로드 시에는 인터넷이 필요하며, 이 과정에서 CDN 서버(주로 Hugging Face)와 통신합니다. 일부 서비스는 사용 통계를 익명으로 수집할 수 있으니, 완전한 에어갭(air-gap) 환경이 필요하다면 모델 파일을 오프라인으로 미리 받아두고 로컬 서빙하는 방식을 권장합니다.
Q4: Web LLM(MLC-LLM)과 Transformers.js의 차이는 무엇인가요?
두 프로젝트는 모두 브라우저에서 LLM을 실행한다는 공통점이 있지만, 접근법이 다릅니다. MLC-LLM(Web LLM)은 Apache TVM이라는 컴파일러 인프라를 사용해 모델을 WebGPU에 최적화된 바이트코드로 변환하기 때문에, 대형 생성형 모델(Llama, Mistral, Gemma 등)에서 훨씬 빠른 속도를 냅니다. 반면 Transformers.js는 Hugging Face의 Python 라이브러리를 JavaScript로 포팅한 것으로, ONNX Runtime Web을 백엔드로 사용합니다. NLP 분류·감정분석·번역 같은 인코더 계열 모델에서 강점을 보이고, 개발자 생태계와 문서가 풍부해 진입 장벽이 낮습니다.
Q5: 지금 당장 WebGPU 로컬 LLM을 체험할 수 있는 가장 쉬운 방법은 무엇인가요?
가장 빠른 방법은 WebLLM Chat에 접속하는 것입니다. Chrome 113 이상 브라우저에서 사이트에 접속하면, Llama 3.1 8B 또는 Phi-3 Mini 같은 모델을 선택하고 바로 다운로드·실행할 수 있습니다. 첫 다운로드 시 모델 크기에 따라 4~8GB 정도의 데이터가 브라우저 캐시에 저장되며, 이후부터는 오프라인에서도 바로 사용 가능합니다. 개발자라면 npm install @mlc-ai/web-llm 명령어로 라이브러리를 설치하고 5줄의 코드만으로 직접 통합할 수도 있습니다.
📊 핵심 요약 테이블
| 항목 | 내용 | 중요도 |
|---|---|---|
| 핵심 기술 | WebGPU (W3C 표준, Chrome 113+부터 지원) | ★★★★★ |
| 브라우저 지원 | Chrome, Edge (완전), Firefox (2025+), Safari (부분) | ★★★★☆ |
| 주요 라이브러리 | Web LLM (생성), Transformers.js (NLP), MediaPipe (모바일) | ★★★★★ |
| 최소 권장 사양 | VRAM 6GB 이상 / Apple M1 이상 / RAM 16GB | ★★★★☆ |
| 실용적 모델 크기 | 4B~8B 파라미터 (INT4 양자화 기준 2~5GB) | ★★★★★ |
| 속도 목표 | 초당 15토큰 이상 = 실용 가능 | ★★★☆☆ |
| 개인정보 보호 | 추론 중 네트워크 전송 없음 (다운로드 시만 필요) | ★★★★★ |
| 비용 | 모델 자체 무료 (전기세+다운로드 트래픽만 발생) | ★★★★★ |
| 주요 한계 | iOS 메모리 제한, Safari 호환성, 첫 다운로드 시간 | ★★★☆☆ |
| 추천 첫 체험 | chat.webllm.ai → Phi-3 Mini 선택 → 즉시 실행 | ★★★★☆ |
마무리: 브라우저가 AI의 새로운 운영체제가 된다
2023년 3월, CMU 학생 몇 명이 "브라우저 탭에서 Llama가 돌아간다"는 데모를 올렸을 때, 많은 사람들이 "장난감 수준이겠지"라고 했습니다. 하지만 3년이 지난 2026년, WebGPU 로컬 LLM은 기업이 실제 서비스에 도입하고, Mozilla가 브라우저 자체에 통합하며, 개발자가 사이드 프로젝트에서 ChatGPT를 대체하는 기술이 되었습니다.
ChatGPT가 혁명이었다면, 브라우저 로컬 AI는 그 혁명의 민주화입니다. 서버 없이, 비용 없이, 데이터 걱정 없이. 인터넷이 끊긴 기내에서도, 보안이 중요한 사내 환경에서도, 서버비가 부담스러운 인디 개발자에게도.
아직 GPT-4o를 완전히 대체하지는 못하지만, "내 기기 위에서 나만의 AI가 돌아간다"는 경험은 이미 실용 단계에 들어왔습니다.
지금 당장 chat.webllm.ai에 접속해서, 첫 번째 로컬 AI와 대화해 보세요. 모델이 로딩되는 그 10초, 브라우저 탭 안에서 AI가 살아 움직이는 그 순간이 어떤 느낌인지 직접 경험해 보시길 바랍니다.
💬 여러분의 경험을 댓글로 나눠주세요!
- 어떤 기기에서 처음 실행해봤나요? 속도는 어떻게 느껴지셨나요?
- 로컬 LLM을 가장 쓰고 싶은 용도가 있다면 무엇인가요? (업무 자동화? 개인 챗봇? 코드 어시스턴트?)
- WebGPU 지원이 안 되는 환경에서 막히셨다면, 어떤 기기/브라우저였는지 알려주세요!
다음 글에서는 "Web LLM + RAG(검색 증강 생성)로 내 문서 전용 AI 만들기" — 완전 로컬에서 PDF·노션 데이터를 학습시키는 방법을 다룰 예정입니다. 놓치지 않으려면 구독해두세요! 🔔
댓글
댓글 쓰기