ML Kit w Firebase
Wykorzystuj systemy uczące się w aplikacjach, aby rozwiązywać rzeczywiste problemy.
ML Kit to mobilny pakiet SDK, który udostępnia w łatwym w użyciu pakiecie zaawansowane funkcje uczenia maszynowego Google w aplikacjach na Androida i iOS. Niezależnie od tego, czy dopiero zaczynasz przygodę z uczeniem maszynowym, czy masz już doświadczenie w tej dziedzinie, możesz wdrożyć potrzebne funkcje za pomocą zaledwie kilku wierszy kodu. Aby zacząć, nie musisz mieć dogłębnej wiedzy o sieciach neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym deweloperem ML, ML Kit udostępnia wygodne interfejsy API, które pomagają używać niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.
Najważniejsze funkcje
| Gotowe do użycia w przypadku typowych zastosowań |
ML Kit zawiera zestaw gotowych interfejsów API do typowych zastosowań mobilnych: rozpoznawania tekstu, wykrywania twarzy, identyfikowania punktów orientacyjnych, skanowania kodów kreskowych, etykietowania obrazów i identyfikowania języka tekstu. Wystarczy przekazać dane do biblioteki ML Kit, a ona dostarczy Ci potrzebne informacje. |
| Na urządzeniu lub w chmurze |
Interfejsy API ML Kit działają na urządzeniu lub w chmurze. Nasze interfejsy API na urządzeniu mogą szybko przetwarzać dane i działać nawet wtedy, gdy nie ma połączenia z siecią. Nasze interfejsy API działające w chmurze wykorzystują natomiast technologię uczenia maszynowego Google Cloud, aby zapewnić jeszcze większą dokładność. |
| Wdrażanie modeli niestandardowych |
Jeśli interfejsy API ML Kit nie obejmują Twoich przypadków użycia, zawsze możesz użyć własnych modeli TensorFlow Lite. Wystarczy, że prześlesz model do Firebase, a my zajmiemy się jego hostowaniem i udostępnianiem w aplikacji. ML Kit działa jako warstwa interfejsu API dla Twojego modelu niestandardowego, co ułatwia jego uruchamianie i używanie. |
Jak to działa?
ML Kit ułatwia stosowanie technik uczenia maszynowego w aplikacjach dzięki połączeniu technologii ML od Google, takich jak Google Cloud Vision API, TensorFlow Lite i Android Neural Networks API, w jednym pakiecie SDK. Niezależnie od tego, czy potrzebujesz mocy obliczeniowej przetwarzania w chmurze, możliwości modeli na urządzeniu zoptymalizowanych pod kątem urządzeń mobilnych w czasie rzeczywistym czy elastyczności niestandardowych modeli TensorFlow Lite, ML Kit umożliwia to za pomocą zaledwie kilku wierszy kodu.
Jakie funkcje są dostępne na urządzeniu lub w chmurze?
Ścieżka implementacji
| Integracja pakietu SDK | Szybko dodaj pakiet SDK za pomocą Gradle lub menedżera pakietów Swift. | |
| Przygotowywanie danych wejściowych | Jeśli na przykład korzystasz z funkcji związanej z widzeniem, zrób zdjęcie aparatem i wygeneruj niezbędne metadane, takie jak obrót obrazu, lub poproś użytkownika o wybranie zdjęcia z galerii. | |
| Zastosuj model ML do danych | Stosując model ML do swoich danych, możesz generować statystyki, takie jak stan emocjonalny wykrytych twarzy lub obiekty i koncepcje rozpoznane na obrazie, w zależności od użytej funkcji. Wykorzystaj te informacje w funkcjach aplikacji, takich jak ulepszanie zdjęć, automatyczne generowanie metadanych lub inne, które przyjdą Ci do głowy. |
Dalsze kroki
- Poznaj gotowe interfejsy API: rozpoznawanie tekstu, wykrywanie twarzy, skanowanie kodów kreskowych, etykietowanie obrazów, wykrywanie i śledzenie obiektów, rozpoznawanie punktów orientacyjnych, inteligentne odpowiedzi, tłumaczenie i identyfikacja języka.
- Wytrenuj własny model etykietujący obrazy, korzystając z AutoML Vision Edge.
- Dowiedz się więcej o korzystaniu w aplikacji ze zoptymalizowanych pod kątem urządzeń mobilnych modeli niestandardowych.