المكوّن الإضافي Ollama

يقدّم المكوّن الإضافي Ollama واجهات لأيّ من خدمات معالجة اللغة المحلية (LLM) المتوافقة مع Ollama.

المتطلبات الأساسية

يتطلّب هذا المكوّن الإضافي تثبيت خادم Ollama وتشغيله أولاً. يمكنك اتّباع التعليمات الواردة في صفحة تنزيل Ollama.

استخدِم واجهة سطر الأوامر Ollama لتنزيل النماذج التي تهمّك. على سبيل المثال:

ollama pull gemma3

لتطوير التطبيقات، يمكنك تشغيل Ollama على جهاز التطوير. تعمل التطبيقات المنشورة عادةً على تشغيل Ollama على جهاز مزوّد بوحدة معالجة رسومات مختلفة عن الجهاز الذي يستضيف الجزء الخلفي من التطبيق الذي يعمل على Genkit.

الإعداد

لاستخدام هذا المكوّن الإضافي، عليك تمرير ollama.Ollama إلى WithPlugins() في ملف بدء Genkit ، مع تحديد عنوان خادم Ollama:

import "github.com/firebase/genkit/go/plugins/ollama"
g, err := genkit.Init(context.Background(), genkit.WithPlugins(&ollama.Ollama{ServerAddress: "http://127.0.0.1:11434"}))

الاستخدام

لإنشاء محتوى، عليك أولاً إنشاء تعريف نموذج استنادًا إلى النموذج الذي ثبّته وتريد استخدامه. على سبيل المثال، إذا ثبّتْت Gemma 2:

model := ollama.DefineModel(
    ollama.ModelDefinition{
        Name: "gemma3",
        Type: "chat", // "chat" or "generate"
    },
    &ai.ModelInfo{
        Multiturn:  true,
        SystemRole: true,
        Tools:      false,
        Media:      false,
    },
)

بعد ذلك، يمكنك استخدام مرجع النموذج لإرسال الطلبات إلى خادم Ollama:

resp, err := genkit.Generate(ctx, g, ai.WithModel(model), ai.WithPrompt("Tell me a joke."))
if err != nil {
    return err
}

log.Println(resp.Text())

اطّلِع على إنشاء المحتوى لمزيد من المعلومات.