Fine-tuning — дополнительное training шаг после pretrain, когда model адаптируется к specific task / domain на ваших данных. Полный FT меняет все weights (требует много GPU). LoRA / QLoRA — только low-rank adapters (1% параметров → 10x быстрее, работает на 1 GPU). Use cases: JSON structured output, domain tone, coding style, non-English languages. OpenAI, Together.ai, Hugging Face AutoTrain — easy APIs.
Ниже: подробности, пример, смежные термины, FAQ.
# OpenAI fine-tuning (JSONL format)
# train.jsonl:
{"messages": [{"role":"user","content":"What is TCP?"},{"role":"assistant","content":"TCP — reliable stream protocol..."}]}
# Upload
openai api files.create -p fine-tune train.jsonl
# Create fine-tune
openai api fine_tuning.jobs.create -t file-abc -m gpt-4o-mini
# Monitor
openai api fine_tuning.jobs.retrieve ft-xyzЕсли prompt engineering + RAG не дают нужного качества, style или structured output — да. Иначе лучше optimize prompt.
Минимум 100 examples для ощутимого effect. 1k-10k — рекомендованный range. Больше — diminishing returns.
OpenAI gpt-4o-mini FT: $3 за 1M training tokens. Together.ai Llama 70B: ~$10. Full FT 70B в cloud — $500+.