Ollama¶
Используйте локально размещённые модели через Ollama с префиксом ollama:. API-ключ не требуется. Это идеальный вариант для разработки, тестирования и сценариев, где данные не должны покидать ваш сервер.
Настройка¶
- Установите Ollama
- Загрузите модель:
ollama pull llama3 - Ollama работает локально на порту 11434 по умолчанию
# Optional: configure custom endpoint
export OLLAMA_API_BASE_URL="http://localhost:11434/v1"
export OLLAMA_API_KEY="" # Optional, usually not needed
Доступные модели¶
Можно использовать любую модель, доступную в Ollama:
| Модель | Размер | Описание |
|---|---|---|
llama3 | 8B | Meta Llama 3 |
llama3:70b | 70B | Большая версия Llama 3 |
mistral | 7B | Mistral 7B |
mixtral | 47B | Mixtral MoE |
codellama | 7B | Llama для кода |
phi3 | 3.8B | Microsoft Phi-3 |
Использование¶
from eval_lib import AnswerRelevancyMetric, BiasMetric
metric = AnswerRelevancyMetric(model="ollama:llama3", threshold=0.6)
metric = BiasMetric(model="ollama:mistral", threshold=0.7)
Преимущества¶
- Бесплатно -- никаких затрат на API
- Приватно -- данные никогда не покидают вашу машину
- Быстро -- нет сетевой задержки (при наличии GPU)
Ограничения¶
- Качество зависит от размера и возможностей модели
- Требует локальных вычислительных ресурсов (рекомендуется GPU)
- Маленькие модели могут давать менее надёжные результаты оценки
- Отслеживание стоимости возвращает
None(нет затрат на API)
Совет
Для лучших результатов с Ollama используйте крупные модели (70B+) для оценочных метрик. Маленькие модели могут не справляться с нюансированными рассуждениями, необходимыми для генерации вердиктов.