Plugin Ollama menyediakan antarmuka ke LLM lokal mana pun yang didukung oleh Ollama.
Prasyarat
Plugin ini mengharuskan Anda menginstal dan menjalankan server Ollama terlebih dahulu. Anda dapat mengikuti petunjuk di halaman Download Ollama.
Gunakan CLI Ollama untuk mendownload model yang Anda minati. Contoh:
ollama pull gemma3
Untuk pengembangan, Anda dapat menjalankan Ollama di mesin pengembangan. Aplikasi yang di-deploy biasanya menjalankan Ollama pada mesin yang memiliki akselerasi GPU yang berbeda dengan mesin yang menghosting backend aplikasi dan menjalankan Genkit.
Konfigurasi
Untuk menggunakan plugin ini, teruskan ollama.Ollama
ke WithPlugins()
di penginisialisasi
Genkit, dengan menentukan alamat server Ollama Anda:
import "github.com/firebase/genkit/go/plugins/ollama"
g, err := genkit.Init(context.Background(), genkit.WithPlugins(&ollama.Ollama{ServerAddress: "http://127.0.0.1:11434"}))
Penggunaan
Untuk menghasilkan konten, pertama-tama Anda perlu membuat definisi model berdasarkan model yang Anda instal dan ingin gunakan. Misalnya, jika Anda menginstal Gemma 2:
model := ollama.DefineModel(
ollama.ModelDefinition{
Name: "gemma3",
Type: "chat", // "chat" or "generate"
},
&ai.ModelInfo{
Multiturn: true,
SystemRole: true,
Tools: false,
Media: false,
},
)
Kemudian, Anda dapat menggunakan referensi model untuk mengirim permintaan ke server Ollama:
resp, err := genkit.Generate(ctx, g, ai.WithModel(model), ai.WithPrompt("Tell me a joke."))
if err != nil {
return err
}
log.Println(resp.Text())
Lihat Membuat konten untuk mengetahui informasi selengkapnya.