Ollamaのコンテキストウィンドウを広げてローカルLLMの可能性を探る話
ローカルで大規模言語モデル(LLM)を動かす際、多くの人が直面するのが「コンテキストウィンドウの狭さ」の問題です。特に、Ollamaのデフォルト設定(約4kトークン)では、少し長い会話や複雑なコード生成を試みると、すぐに文脈を忘れてしまい、「話にならない」と感じることも少なくありませんでした。
Tips (10)
Electronics (8)
Statiq (6)
Microsoft 365 (5)
Wearable Technology (4)
Smartwatch (4)
Apple Watch (3)
wena (3)
AI (2)
Web (2)
Cell Phones and Accessories (2)
Cell Phones (2)
Computers and Accessories (2)
Android (2)
Tools and Home Improvenment (2)
ASUS (2)
Windows 10 (2)
Windows 8 (2)
Windows 8.1 (2)
uv (1)
venv (1)
Python (1)
TTS (1)
Qwen (1)
macOS (1)
development (1)
qwen3-tts (1)
Ollama (1)
LLM (1)
ローカルAI (1)
開発環境 (1)
MacBook Pro (1)
Blog (1)
Azure (1)
Cloudflare (1)
GitHub (1)
CI/CD (1)
Google Workspace (1)
Gemini (1)
Xiaomi Smart Band (1)
My Apps (1)
Blog Reader (1)
Copilot Pro (1)
Domain (1)
Windows 11 Insider Preview (1)
Windows Copilot (1)
Kindle (1)
Gmail (1)
ChatGPT (1)
Docking Stations (1)
au (1)
Car Navigation (1)
Site (1)
NAS (1)
Apache (1)
Theme Park (1)
Universal Studio Japan (1)
Kitchen and Bath Fixtures (1)
AC Adapter (1)
Fire HD 8 Plus (1)
Hubs and Controllers (1)
SwitchBot (1)
SEO (1)
Google Fonts (1)
CSS (1)
Capture board (1)
C# (1)
npm (1)
Visual Studio Code (1)
Fossil Sport (1)
Wear OS by Google (1)
Microsoft Azure (1)
Vivo PC (1)
TAICIH21 (1)
Nexus Player (1)
IIS Express (1)
PHP (1)
Web Platform Installer (1)