以下の内容はhttps://touch-sp.hatenablog.com/entry/2025/01/01/003719より取得しました。


【IPEX-LLM】【Ollama】Intel製GPUでOllamaを実行する。

はじめに

以前にもやっています。
touch-sp.hatenablog.com
Ubuntu 24.04に変えて実行したのでその記録を残しておきます。

hoge@hogePC:~$ uname -r
6.8.0-51-generic

GPUドライバのインストール

こちらの通りにやりました。

インストールの確認は以下のようにするようです。

sudo clinfo -l

このような結果が返って来ました。

Platform #0: Intel(R) OpenCL Graphics
 `-- Device #0: Intel(R) Arc(TM) A770 Graphics

oneAPI Base Toolkitのインストール

IPEX-LLM公式の通りにやりました。

インストールの確認は以下のようにするようです。
1行目はoneAPIをスタートさせるコマンドのようです。

source /opt/intel/oneapi/setvars.sh
sycl-ls

このような結果が返って来ました。

[opencl:acc:0] Intel(R) FPGA Emulation Platform for OpenCL(TM), Intel(R) FPGA Emulation Device OpenCL 1.2  [2023.16.12.0.12_195853.xmain-hotfix]
[opencl:cpu:1] Intel(R) OpenCL, 11th Gen Intel(R) Core(TM) i7-11700 @ 2.50GHz OpenCL 3.0 (Build 0) [2023.16.12.0.12_195853.xmain-hotfix]
[opencl:gpu:2] Intel(R) OpenCL Graphics, Intel(R) Arc(TM) A770 Graphics OpenCL 3.0 NEO  [24.39.31294]
[ext_oneapi_level_zero:gpu:0] Intel(R) Level-Zero, Intel(R) Arc(TM) A770 Graphics 1.3 [1.3.29735]

IPEX-LLMのインストール

Miniforgeのインストール

こちらに従いました。

wget https://github.com/conda-forge/miniforge/releases/latest/download/Miniforge3-Linux-x86_64.sh
bash Miniforge3-Linux-x86_64.sh
source ~/.bashrc

毎回 base環境が立ち上がるのを避けるために以下を実行しました。

conda config --set auto_activate_base false

Conda環境の作成

conda create -n llm-cpp python=3.11
conda activate llm-cpp

ipex-llm[cpp]のインストール

pip install --pre --upgrade ipex-llm[cpp]

Ollamaの初期化と実行

こちらに従いました。

Ollamaの初期化

conda activate llm-cpp
init-ollama

Ollamaの実行

export OLLAMA_NUM_GPU=999
export no_proxy=localhost,127.0.0.1
export ZES_ENABLE_SYSMAN=1
source /opt/intel/oneapi/setvars.sh
export SYCL_CACHE_PERSISTENT=1
OLLAMA_HOST=0.0.0.0 ./ollama serve

2025年2月23日追記

「Ollama Portable」というのを利用するともっと簡単にOllamaが使えます。
touch-sp.hateblo.jp





以上の内容はhttps://touch-sp.hatenablog.com/entry/2025/01/01/003719より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14