はじめに
今までは Google の Gemma-3-12b(4bit量子化)をllama.cppで実行して使っていました。今回は無料枠のなかで Google の Gemini 2.0 Flash を使わせてもらいました。感想
言語モデルは大事です。明らかにSmolAgentsの回答が変わりました。変更点
前回、前々回からの変更点だけメモしておきます。touch-sp.hatenablog.com
touch-sp.hatenablog.com
.envファイルを作成
GOOGLE_API_KEY=<your api key>
Dockerfileの修正
openai → litellmに変更RUN pip install --no-cache-dir 'smolagents[litellm,gradio,mcp]'
.envのコピー
COPY .env /app/
Pythonスクリプトの変更
import os from dotenv import load_dotenv from smolagents import LiteLLMModel load_dotenv() api_key = os.environ.get("GOOGLE_API_KEY") model = LiteLLMModel( "gemini/gemini-2.0-flash", api_key=api_key )