پلاگین Olama برای هر یک از LLM های محلی پشتیبانی شده توسط Ollama رابط ها را فراهم می کند.
پیش نیازها
این افزونه نیاز دارد که ابتدا سرور اوللاما را نصب و اجرا کنید. می توانید دستورالعمل های صفحه دانلود اوللاما را دنبال کنید.
از Ollama CLI برای دانلود مدل های مورد علاقه خود استفاده کنید. به عنوان مثال:
ollama pull gemma3
برای توسعه، میتوانید Olama را روی دستگاه توسعه خود اجرا کنید. برنامههای مستقر معمولاً Olama را روی دستگاهی با شتاب GPU اجرا میکنند که با دستگاهی که میزبان برنامه باطن برنامه Genkit است متفاوت است.
پیکربندی
برای استفاده از این افزونه، ollama.Ollama
را به WithPlugins()
در اولیه Genkit ارسال کنید و آدرس سرور Ollama خود را مشخص کنید:
import "github.com/firebase/genkit/go/plugins/ollama"
g, err := genkit.Init(context.Background(), genkit.WithPlugins(&ollama.Ollama{ServerAddress: "http://127.0.0.1:11434"}))
استفاده
برای تولید محتوا، ابتدا باید یک تعریف مدل بر اساس مدلی که نصب کرده اید و می خواهید استفاده کنید ایجاد کنید. به عنوان مثال، اگر Gemma 2 را نصب کرده باشید:
model := ollama.DefineModel(
ollama.ModelDefinition{
Name: "gemma3",
Type: "chat", // "chat" or "generate"
},
&ai.ModelInfo{
Multiturn: true,
SystemRole: true,
Tools: false,
Media: false,
},
)
سپس، میتوانید از مرجع مدل برای ارسال درخواستها به سرور Ollama خود استفاده کنید:
resp, err := genkit.Generate(ctx, g, ai.WithModel(model), ai.WithPrompt("Tell me a joke."))
if err != nil {
return err
}
log.Println(resp.Text())
برای اطلاعات بیشتر به تولید محتوا مراجعه کنید.