W tym przewodniku dowiesz się, jak zacząć korzystać z funkcji Gemini API in Vertex AI bezpośrednio z aplikacji za pomocą pakietu SDK Vertex AI in Firebase na wybranej platformie.
Pamiętaj, że możesz też skorzystać z tego przewodnika, aby rozpocząć dostępowanie do modeli Imagen za pomocą pakietów SDK Vertex AI in Firebase.
Wymagania wstępne
W tym przewodniku zakładamy, że znasz JavaScript i wiesz, jak tworzyć aplikacje internetowe. Ten przewodnik jest niezależny od platformy.
Upewnij się, że środowisko programistyczne i aplikacja internetowa spełniają te wymagania:
- (Opcjonalnie) Node.js
- Nowoczesne przeglądarki internetowe
(Opcjonalnie) Zapoznaj się z przykładową aplikacją.
Możesz szybko wypróbować pakiet SDK, zobaczyć pełną implementację różnych przypadków użycia lub użyć przykładowej aplikacji, jeśli nie masz własnej aplikacji internetowej. Aby użyć przykładowej aplikacji, musisz połączyć ją z projektem Firebase.
Krok 1. Skonfiguruj projekt Firebase i połącz z nim aplikację.
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase otwórz stronę Vertex AI.
Kliknij kartę Vertex AI in Firebase, aby uruchomić przepływ pracy, który pomoże Ci wykonać te czynności:
Przejdź w projekcie na abonament Blaze z taryfą płatności według wykorzystania.
Włącz wymagane interfejsy API w projekcie (interfejs API Vertex AI i interfejs API Vertex AI in Firebase).
Aby dodać pakiet SDK do aplikacji, przejdź do następnego kroku w tym przewodniku.
Jeśli nie masz jeszcze projektu Firebase i aplikacji połączonej z Firebase:
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok) możesz dodać do aplikacji pakiet SDK Vertex AI in Firebase.
Biblioteka Vertex AI in Firebase udostępnia interfejsy API do interakcji z modelami Gemini i Imagen. Biblioteka jest zawarta w pakiecie Firebase JavaScript SDK dla sieci Web.
Zainstaluj pakiet Firebase JS SDK na potrzeby Internetu za pomocą npm:
npm install firebase
Inicjalizacja Firebase w aplikacji:
import { initializeApp } from "firebase/app"; // TODO(developer) Replace the following with your app's Firebase configuration // See: https://firebase.google.com/docs/web/learn-more#config-object const firebaseConfig = { // ... }; // Initialize FirebaseApp const firebaseApp = initializeApp(firebaseConfig);
Krok 3. Inicjuj usługę Vertex AI i utwórz instancję GenerativeModel
.
Zanim zaczniesz wykonywać wywołania interfejsu API i wysyłać prompt do modelu Gemini, musisz zainicjować usługę Vertex AI i utworzyć instancję GenerativeModel
.
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(vertexAI, { model: "gemini-2.0-flash" });
Po przeczytaniu tego przewodnika dowiesz się, jak wybrać model i (opcjonalnie) lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.
Krok 4. Wyślij prośbę o prompt do modelu
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i inicjalizacji usługi Vertex AI oraz modelu generatywnego możesz wysłać prośbę o prompt do modelu Gemini.
Możesz użyć generateContent()
, aby wygenerować tekst z promptu tekstowego:
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(vertexAI, { model: "gemini-2.0-flash" });
// Wrap in an async function so you can use await
async function run() {
// Provide a prompt that contains text
const prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
const result = await model.generateContent(prompt);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Co jeszcze możesz zrobić?
Więcej informacji o obsługiwanych modelach
Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz o ich limitach i cenach.
Wypróbuj inne funkcje
- Dowiedz się więcej o generowaniu tekstu na podstawie promptów tekstowych, w tym o przesyłaniu odpowiedzi.
- generować tekst na podstawie promptów multimodalnych (w tym tekst, obrazy, pliki PDF, filmy i pliki audio).
- tworzyć rozmowy wieloetapowe (czat);
- generować uporządkowane dane wyjściowe (np. w formacie JSON) zarówno na podstawie promptów tekstowych, jak i promptów multimodalnych;
- generować obrazy na podstawie promptów tekstowych;
- przesyłać dane wejściowe i wyjściowe (w tym dźwięk) za pomocą urządzenia Gemini Live API;
- Użyj funkcji wywoływania, aby połączyć modele generatywne z zewnętrznymi systemami i informacjami.
Dowiedz się, jak kontrolować generowanie treści
- Zrozumieć projektowanie promptów, w tym sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak temperatura i maksymalna liczba tokenów wyjściowych (w przypadku Gemini) lub format obrazu i generowanie osób (w przypadku Imagen).
- Używaj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uważane za szkodliwe.
Prześlij opinię o swoich wrażeniach związanych z usługą Vertex AI in Firebase