Gemini API با استفاده از Firebase AI Logic

با استفاده از Firebase AI Logic ، اپلیکیشن‌ها و ویژگی‌های موبایل و وب مبتنی بر هوش مصنوعی را با مدل‌های Gemini و Imagen بسازید.

Firebase AI Logic به شما امکان دسترسی به جدیدترین مدل‌های هوش مصنوعی مولد Google را می‌دهد: مدل‌های Gemini و مدل‌های Imagen .

اگر نیاز دارید که Gemini API یا Imagen API مستقیماً از طریق تلفن همراه یا برنامه وب خود - به جای سمت سرور - فراخوانی کنید، می توانید از SDK های مشتری Firebase AI Logic استفاده کنید. این SDK های مشتری به طور خاص برای استفاده با برنامه های تلفن همراه و وب ساخته شده اند و گزینه های امنیتی را در برابر مشتریان غیرمجاز و همچنین ادغام با سایر سرویس های Firebase ارائه می دهند.

این SDK های مشتری در سوئیفت برای پلتفرم های اپل، کاتلین و جاوا برای اندروید، جاوا اسکریپت برای وب، دارت برای فلاتر و یونیتی در دسترس هستند.

با این SDK های مشتری، می توانید شخصی سازی هوش مصنوعی را به برنامه ها اضافه کنید، تجربه چت هوش مصنوعی ایجاد کنید، بهینه سازی ها و اتوماسیون های مبتنی بر هوش مصنوعی را ایجاد کنید، و خیلی چیزهای دیگر!

شروع کنید


به انعطاف پذیری بیشتر یا یکپارچه سازی سمت سرور نیاز دارید؟
Genkit چارچوب منبع باز Firebase برای توسعه پیشرفته هوش مصنوعی سمت سرور با دسترسی گسترده به مدل‌های Google، OpenAI، Anthropic و غیره است. این شامل ویژگی‌های پیشرفته‌تر هوش مصنوعی و ابزارهای محلی اختصاصی است.

قابلیت های کلیدی

ورودی زبان چندوجهی و طبیعی مدل‌های Gemini چند وجهی هستند، بنابراین درخواست‌های ارسال شده به Gemini API می‌تواند شامل متن، تصاویر، فایل‌های PDF، ویدیو و صدا باشد.

هر دو مدل Gemini و Imagen را می توان با ورودی زبان طبیعی درخواست کرد.

مجموعه در حال رشد از قابلیت ها با SDK ها، می توانید مستقیماً با Gemini API یا Imagen API از تلفن همراه یا برنامه وب خود تماس بگیرید تا تجربه چت هوش مصنوعی ایجاد کنید ، تصاویر تولید کنید، از فراخوانی عملکرد (ابزارها) ، جریان ورودی و خروجی (از جمله صدا) و موارد دیگر استفاده کنید.
امنیت و جلوگیری از سوء استفاده برای برنامه های تولیدی از Firebase App Check برای کمک به محافظت از APIهایی که به مدل‌های Gemini و Imagen دسترسی دارند در برابر سوءاستفاده توسط مشتریان غیرمجاز استفاده کنید.

Firebase AI Logic همچنین به‌طور پیش‌فرض دارای محدودیت‌های نرخ برای هر کاربر است و این محدودیت‌های نرخ برای هر کاربر کاملاً قابل تنظیم هستند.

زیرساخت های قوی از زیرساخت‌های مقیاس‌پذیری که برای استفاده با برنامه‌های تلفن همراه و وب ساخته شده‌اند، مانند مدیریت فایل‌ها با Cloud Storage for Firebase ، مدیریت داده‌های ساختاریافته با ارائه‌های پایگاه داده Firebase (مانند Cloud Firestore )، و تنظیم پویا تنظیمات زمان اجرا با Firebase Remote Config ، بهره ببرید.

چگونه کار می کند؟

Firebase AI Logic SDK های مشتری، یک سرویس پروکسی و سایر ویژگی ها را ارائه می دهد که به شما امکان می دهد به مدل های هوش مصنوعی مولد Google برای ایجاد ویژگی های هوش مصنوعی در برنامه های تلفن همراه و وب خود دسترسی داشته باشید.

پشتیبانی از مدل های Google و ارائه دهندگان " Gemini API ".

ما از آخرین مدل‌های Gemini و مدل‌های Imagen 3 پشتیبانی می‌کنیم و شما ارائه‌دهنده « جمینی API » دلخواه خود را برای دسترسی به این مدل‌ها انتخاب می‌کنید. ما هم از Gemini Developer API و هم Vertex AI Gemini API پشتیبانی می کنیم. در مورد تفاوت بین استفاده از دو ارائه دهنده API بیاموزید.

و اگر می‌خواهید از Gemini Developer API استفاده کنید، می‌توانید از «سطح رایگان» آن‌ها برای راه‌اندازی سریع و راه‌اندازی سریع آن‌ها استفاده کنید.

SDKهای موبایل و کلاینت وب

شما درخواست‌ها را مستقیماً از طریق تلفن همراه یا برنامه وب خود با استفاده از SDK مشتری هوش مصنوعی Firebase ما، که در Swift برای پلتفرم‌های Apple، Kotlin و Java برای Android، JavaScript برای Web، Dart برای Flutter و Unity موجود است، به مدل‌ها ارسال می‌کنید.

اگر هر دو ارائه‌دهنده API Gemini را در پروژه Firebase خود تنظیم کرده‌اید، می‌توانید تنها با فعال کردن API دیگر و تغییر چند خط کد اولیه، بین ارائه‌دهندگان API جابه‌جا شوید.

علاوه بر این، SDK مشتری ما برای وب، دسترسی آزمایشی به استنتاج ترکیبی و درون دستگاه را برای برنامه‌های وب در حال اجرا در Chrome روی دسک‌تاپ ارائه می‌دهد. این پیکربندی به برنامه شما اجازه می‌دهد تا در صورت موجود بودن از مدل روی دستگاه استفاده کند، اما در صورت نیاز به مدل میزبان ابری بازگردد.

سرویس پروکسی

سرویس پروکسی ما به عنوان دروازه ای بین مشتری و ارائه دهنده Gemini API انتخابی شما (و مدل های Google) عمل می کند. خدمات و ادغام هایی را ارائه می دهد که برای برنامه های موبایل و وب مهم هستند. به عنوان مثال، می‌توانید Firebase App Check راه‌اندازی کنید تا به محافظت از ارائه‌دهنده API انتخابی و منابع باطن خود در برابر سوءاستفاده توسط مشتریان غیرمجاز کمک کند.

این امر به ویژه در صورت استفاده از Gemini Developer API بسیار مهم است زیرا سرویس پروکسی ما و ادغام این App Check مطمئن می شوند که کلید Gemini API شما روی سرور باقی می ماند و در پایگاه کد برنامه های شما جاسازی نمی شود.

مسیر پیاده سازی

پروژه Firebase خود را راه اندازی کنید و برنامه خود را به Firebase متصل کنید از گردش کار هدایت شده در صفحه منطق هوش مصنوعی Firebase در کنسول Firebase برای راه اندازی پروژه خود استفاده کنید (از جمله فعال کردن API های مورد نیاز برای ارائه دهنده API Gemini انتخابی)، برنامه خود را با پروژه Firebase خود ثبت کنید و سپس پیکربندی Firebase خود را به برنامه خود اضافه کنید.
SDK را نصب کرده و مقداردهی اولیه کنید Firebase AI Logic SDK را که مخصوص پلتفرم برنامه شما است نصب کنید و سپس سرویس را مقداردهی اولیه کنید و یک نمونه مدل در برنامه خود ایجاد کنید.
درخواست های فوری را به مدل های Gemini و Imagen ارسال کنید از SDK ها برای ارسال پیام های متنی یا چندوجهی به مدل Gemini برای تولید متن و کد ، خروجی ساختاریافته (مانند JSON) و تصاویر استفاده کنید. همچنین، می‌توانید از یک مدل Imagen برای تولید تصاویر درخواست کنید.

با چت چند نوبتی ، پخش متن و صوت دو طرفه و فراخوانی عملکرد ، تجربیات غنی تری بسازید.

برای تولید آماده شود ادغام‌های مهمی را برای برنامه‌های تلفن همراه و وب اجرا کنید، مانند محافظت از API در برابر سوء استفاده با Firebase App Check و استفاده از Firebase Remote Config برای به‌روزرسانی پارامترهای کدتان از راه دور (مانند نام مدل).

مراحل بعدی

با دسترسی به یک مدل از تلفن همراه یا برنامه وب خود شروع کنید

به راهنمای شروع کار بروید

درباره مدل های پشتیبانی شده بیشتر بدانید

در مورد مدل های موجود برای موارد استفاده مختلف و سهمیه ها و قیمت آنها اطلاعات کسب کنید.

،

Gemini API با استفاده از Firebase AI Logic

با استفاده از Firebase AI Logic ، اپلیکیشن‌ها و ویژگی‌های موبایل و وب مبتنی بر هوش مصنوعی را با مدل‌های Gemini و Imagen بسازید.

Firebase AI Logic به شما امکان دسترسی به جدیدترین مدل‌های هوش مصنوعی مولد Google را می‌دهد: مدل‌های Gemini و مدل‌های Imagen .

اگر نیاز دارید که Gemini API یا Imagen API مستقیماً از طریق تلفن همراه یا برنامه وب خود - به جای سمت سرور - فراخوانی کنید، می توانید از SDK های مشتری Firebase AI Logic استفاده کنید. این SDK های مشتری به طور خاص برای استفاده با برنامه های تلفن همراه و وب ساخته شده اند و گزینه های امنیتی را در برابر مشتریان غیرمجاز و همچنین ادغام با سایر سرویس های Firebase ارائه می دهند.

این SDK های مشتری در سوئیفت برای پلتفرم های اپل، کاتلین و جاوا برای اندروید، جاوا اسکریپت برای وب، دارت برای فلاتر و یونیتی در دسترس هستند.

با این SDK های مشتری، می توانید شخصی سازی هوش مصنوعی را به برنامه ها اضافه کنید، تجربه چت هوش مصنوعی ایجاد کنید، بهینه سازی ها و اتوماسیون های مبتنی بر هوش مصنوعی را ایجاد کنید، و خیلی چیزهای دیگر!

شروع کنید


به انعطاف پذیری بیشتر یا یکپارچه سازی سمت سرور نیاز دارید؟
Genkit چارچوب منبع باز Firebase برای توسعه پیشرفته هوش مصنوعی سمت سرور با دسترسی گسترده به مدل‌های Google، OpenAI، Anthropic و غیره است. این شامل ویژگی‌های پیشرفته‌تر هوش مصنوعی و ابزارهای محلی اختصاصی است.

قابلیت های کلیدی

ورودی زبان چندوجهی و طبیعی مدل‌های Gemini چند وجهی هستند، بنابراین درخواست‌های ارسال شده به Gemini API می‌تواند شامل متن، تصاویر، فایل‌های PDF، ویدیو و صدا باشد.

هر دو مدل Gemini و Imagen را می توان با ورودی زبان طبیعی درخواست کرد.

مجموعه در حال رشد از قابلیت ها با SDK ها، می توانید مستقیماً با Gemini API یا Imagen API از تلفن همراه یا برنامه وب خود تماس بگیرید تا تجربه چت هوش مصنوعی ایجاد کنید ، تصاویر تولید کنید، از فراخوانی عملکرد (ابزارها) ، جریان ورودی و خروجی (از جمله صدا) و موارد دیگر استفاده کنید.
امنیت و جلوگیری از سوء استفاده برای برنامه های تولیدی از Firebase App Check برای کمک به محافظت از APIهایی که به مدل‌های Gemini و Imagen دسترسی دارند در برابر سوءاستفاده توسط مشتریان غیرمجاز استفاده کنید.

Firebase AI Logic همچنین به‌طور پیش‌فرض دارای محدودیت‌های نرخ برای هر کاربر است و این محدودیت‌های نرخ برای هر کاربر کاملاً قابل تنظیم هستند.

زیرساخت های قوی از زیرساخت‌های مقیاس‌پذیری که برای استفاده با برنامه‌های تلفن همراه و وب ساخته شده‌اند، مانند مدیریت فایل‌ها با Cloud Storage for Firebase ، مدیریت داده‌های ساختاریافته با ارائه‌های پایگاه داده Firebase (مانند Cloud Firestore )، و تنظیم پویا تنظیمات زمان اجرا با Firebase Remote Config ، بهره ببرید.

چگونه کار می کند؟

Firebase AI Logic SDK های مشتری، یک سرویس پروکسی و سایر ویژگی ها را ارائه می دهد که به شما امکان می دهد به مدل های هوش مصنوعی مولد Google برای ایجاد ویژگی های هوش مصنوعی در برنامه های تلفن همراه و وب خود دسترسی داشته باشید.

پشتیبانی از مدل های Google و ارائه دهندگان " Gemini API ".

ما از آخرین مدل‌های Gemini و مدل‌های Imagen 3 پشتیبانی می‌کنیم و شما ارائه‌دهنده « جمینی API » دلخواه خود را برای دسترسی به این مدل‌ها انتخاب می‌کنید. ما هم از Gemini Developer API و هم Vertex AI Gemini API پشتیبانی می کنیم. در مورد تفاوت بین استفاده از دو ارائه دهنده API بیاموزید.

و اگر می‌خواهید از Gemini Developer API استفاده کنید، می‌توانید از «سطح رایگان» آن‌ها برای راه‌اندازی سریع و راه‌اندازی سریع آن‌ها استفاده کنید.

SDKهای موبایل و کلاینت وب

شما درخواست‌ها را مستقیماً از طریق تلفن همراه یا برنامه وب خود با استفاده از SDK مشتری هوش مصنوعی Firebase ما، که در Swift برای پلتفرم‌های Apple، Kotlin و Java برای Android، JavaScript برای Web، Dart برای Flutter و Unity موجود است، به مدل‌ها ارسال می‌کنید.

اگر هر دو ارائه‌دهنده API Gemini را در پروژه Firebase خود تنظیم کرده‌اید، می‌توانید تنها با فعال کردن API دیگر و تغییر چند خط کد اولیه، بین ارائه‌دهندگان API جابه‌جا شوید.

علاوه بر این، SDK مشتری ما برای وب، دسترسی آزمایشی به استنتاج ترکیبی و درون دستگاه را برای برنامه‌های وب در حال اجرا در Chrome روی دسک‌تاپ ارائه می‌دهد. این پیکربندی به برنامه شما اجازه می‌دهد تا در صورت موجود بودن از مدل روی دستگاه استفاده کند، اما در صورت نیاز به مدل میزبان ابری بازگردد.

سرویس پروکسی

سرویس پروکسی ما به عنوان دروازه ای بین مشتری و ارائه دهنده Gemini API انتخابی شما (و مدل های Google) عمل می کند. خدمات و ادغام هایی را ارائه می دهد که برای برنامه های موبایل و وب مهم هستند. به عنوان مثال، می‌توانید Firebase App Check راه‌اندازی کنید تا به محافظت از ارائه‌دهنده API انتخابی و منابع باطن خود در برابر سوءاستفاده توسط مشتریان غیرمجاز کمک کند.

این امر به ویژه در صورت استفاده از Gemini Developer API بسیار مهم است زیرا سرویس پروکسی ما و ادغام این App Check مطمئن می شوند که کلید Gemini API شما روی سرور باقی می ماند و در پایگاه کد برنامه های شما جاسازی نمی شود.

مسیر پیاده سازی

پروژه Firebase خود را راه اندازی کنید و برنامه خود را به Firebase متصل کنید از گردش کار هدایت شده در صفحه منطق هوش مصنوعی Firebase در کنسول Firebase برای راه اندازی پروژه خود استفاده کنید (از جمله فعال کردن API های مورد نیاز برای ارائه دهنده API Gemini انتخابی)، برنامه خود را با پروژه Firebase خود ثبت کنید و سپس پیکربندی Firebase خود را به برنامه خود اضافه کنید.
SDK را نصب کرده و مقداردهی اولیه کنید Firebase AI Logic SDK را که مخصوص پلتفرم برنامه شما است نصب کنید و سپس سرویس را مقداردهی اولیه کنید و یک نمونه مدل در برنامه خود ایجاد کنید.
درخواست های فوری را به مدل های Gemini و Imagen ارسال کنید از SDK ها برای ارسال پیام های متنی یا چندوجهی به مدل Gemini برای تولید متن و کد ، خروجی ساختاریافته (مانند JSON) و تصاویر استفاده کنید. همچنین، می‌توانید از یک مدل Imagen برای تولید تصاویر درخواست کنید.

با چت چند نوبتی ، پخش متن و صوت دو طرفه و فراخوانی عملکرد ، تجربیات غنی تری بسازید.

برای تولید آماده شود ادغام‌های مهمی را برای برنامه‌های تلفن همراه و وب اجرا کنید، مانند محافظت از API در برابر سوء استفاده با Firebase App Check و استفاده از Firebase Remote Config برای به‌روزرسانی پارامترهای کدتان از راه دور (مانند نام مدل).

مراحل بعدی

با دسترسی به یک مدل از تلفن همراه یا برنامه وب خود شروع کنید

به راهنمای شروع کار بروید

درباره مدل های پشتیبانی شده بیشتر بدانید

در مورد مدل های موجود برای موارد استفاده مختلف و سهمیه ها و قیمت آنها اطلاعات کسب کنید.