Jak nainstalovat Ollama modely na H3.0 server

Pro zprovoznění lokálních modelů na H3.0 serveru potřebujete nainstalovat ekosystém zvaný Ollama.

Veškeré a aktuální informace o Ollama jsou na jejich stránkách: https://ollama.com

Toto je stručný postup, jak nainstalovat Ollama na H3.0 Linux server tak, aby v H3.0 fungovalo napojení lokálních AI modelů.

  1. Instalace Ollama pro Linux se provede přes příkazovou řádku / terminál příkazem:
    curl -fsSL https://ollama.com/install.sh | sh

2. Lokální model se nainstaluje příkazem
ollama pull llama3.2

Kde to llama3.2 je název modelu, který chcete do systému natáhnout a umožnit tak jeho chod. Seznam dalších modelů je na https://ollama.com/search Nejlepší v současnosti je ta llama3.2 a ta vám stačí. Zajímavé jsou také gemma3 a některý z modelů deepseek, například deepseek-r1 (ale ten je moc ukecanej, protože má v odpovědi reasoning postup toho jak k té odpovědi došel), ale ty jsou také náročnějščí na paměť což se výrazně projeví na rychlosti.

3. Poté už jenom spustíte Ollama, aby na serveru fungovala příkazem:
ollama serve

4. Když budete chtít nějaký model otestovat v terminálu, tak ho spustíte příkazem “run”, tedy například
ollama run llama3.2

AI model se pak spustí na příkazové řádce a vy si s ním můžete povídat. Až vás přestane bavit, napíšete místo promptu “/bye”

5. Ollama pak běží na localhostu na portu 11434, tedy z H3.0 se pak volá jako http://localhost:11434/api/generate

6. Pokud byste chtěli nějaký model zrušit, stačí napsat
ollama rm llama3.2