Để gọi API Google Cloud từ ứng dụng, bạn cần tạo một API REST trung gian để xử lý việc uỷ quyền và bảo vệ các giá trị bí mật như khoá API. Sau đó, bạn cần viết mã trong ứng dụng di động để xác thực và giao tiếp với dịch vụ trung gian này.
Một cách để tạo API REST này là sử dụng API Xác thực và Hàm Firebase. API này cung cấp cho bạn một cổng không máy chủ, được quản lý để truy cập vào các API Google Cloud xử lý việc xác thực và có thể được gọi từ ứng dụng di động của bạn bằng các SDK tạo sẵn.
Hướng dẫn này minh hoạ cách sử dụng kỹ thuật này để gọi API Cloud Vision từ ứng dụng của bạn. Phương thức này sẽ cho phép tất cả người dùng đã xác thực truy cập vào các dịch vụ có tính phí của Cloud Vision thông qua dự án Cloud của bạn. Vì vậy, hãy cân nhắc xem cơ chế xác thực này có đủ cho trường hợp sử dụng của bạn hay không trước khi tiếp tục.
Trước khi bắt đầu
Định cấu hình dự án
Nếu bạn chưa thêm Firebase vào ứng dụng, hãy làm theo các bước trong hướng dẫn bắt đầu sử dụng.Sử dụng Trình quản lý gói Swift để cài đặt và quản lý các phần phụ thuộc Firebase.
- Trong Xcode, khi dự án ứng dụng đang mở, hãy chuyển đến File > Add Packages (Tệp > Thêm gói).
- Khi được nhắc, hãy thêm kho lưu trữ SDK của các nền tảng Apple Firebase:
- Chọn thư viện Firebase ML.
- Thêm cờ
-ObjC
vào phần Other Linker Flags (Cờ trình liên kết khác) trong phần cài đặt bản dựng của mục tiêu. - Khi hoàn tất, Xcode sẽ tự động bắt đầu phân giải và tải các phần phụ thuộc xuống ở chế độ nền.
https://github.com/firebase/firebase-ios-sdk.git
Tiếp theo, hãy thực hiện một số bước thiết lập trong ứng dụng:
- Trong ứng dụng, hãy nhập Firebase:
Swift
import FirebaseMLModelDownloader
Objective-C
@import FirebaseMLModelDownloader;
Chỉ cần thực hiện thêm một vài bước định cấu hình nữa là chúng ta đã sẵn sàng:
-
Nếu bạn chưa bật API dựa trên đám mây cho dự án của mình, hãy làm như sau:
- Mở trang API Firebase ML của bảng điều khiển Firebase.
-
Nếu bạn chưa nâng cấp dự án lên gói giá Blaze, hãy nhấp vào Nâng cấp để thực hiện việc này. (Bạn sẽ chỉ được nhắc nâng cấp nếu dự án của bạn không sử dụng gói Blaze.)
Chỉ các dự án cấp Blaze mới có thể sử dụng API dựa trên đám mây.
- Nếu bạn chưa bật API dựa trên đám mây, hãy nhấp vào Bật API dựa trên đám mây.
- Định cấu hình các khoá API Firebase hiện có để không cho phép truy cập vào API
Cloud Vision:
- Mở trang Thông tin xác thực của Cloud Console.
- Đối với mỗi khoá API trong danh sách, hãy mở chế độ xem chỉnh sửa và trong phần Các quy tắc hạn chế đối với khoá, hãy thêm tất cả các API hiện có ngoại trừ API Cloud Vision vào danh sách.
Triển khai hàm có thể gọi
Tiếp theo, hãy triển khai Hàm trên đám mây mà bạn sẽ sử dụng để kết nối ứng dụng với API Thị giác trên đám mây. Kho lưu trữ functions-samples
chứa một ví dụ mà bạn có thể sử dụng.
Theo mặc định, việc truy cập vào API Cloud Vision thông qua hàm này sẽ chỉ cho phép người dùng đã xác thực của ứng dụng truy cập vào API Cloud Vision. Bạn có thể chỉnh sửa hàm cho các yêu cầu khác nhau.
Cách triển khai hàm:
- Sao chép hoặc tải kho lưu trữ hàm-mẫu xuống rồi chuyển sang thư mục
Node-1st-gen/vision-annotate-image
:git clone https://github.com/firebase/functions-samples
cd Node-1st-gen/vision-annotate-image
- Cài đặt phần phụ thuộc:
cd functions
npm install
cd ..
- Nếu bạn chưa có Giao diện dòng lệnh (CLI) của Firebase, hãy cài đặt CLI.
- Khởi chạy dự án Firebase trong thư mục
vision-annotate-image
. Khi được nhắc, hãy chọn dự án của bạn trong danh sách.firebase init
- Triển khai hàm:
firebase deploy --only functions:annotateImage
Thêm Firebase Auth vào ứng dụng
Hàm có thể gọi được triển khai ở trên sẽ từ chối mọi yêu cầu từ người dùng chưa được xác thực của ứng dụng. Nếu chưa thực hiện, bạn cần thêm Firebase Auth vào ứng dụng.
Thêm các phần phụ thuộc cần thiết vào ứng dụng
Sử dụng Trình quản lý gói Swift để cài đặt thư viện Cloud Functions for Firebase.
1. Chuẩn bị hình ảnh đầu vào
Để gọi Cloud Vision, hình ảnh phải được định dạng dưới dạng chuỗi được mã hoá base64. Cách xử lýUIImage
:
Swift
guard let imageData = uiImage.jpegData(compressionQuality: 1.0) else { return } let base64encodedImage = imageData.base64EncodedString()
Objective-C
NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f); NSString *base64encodedImage = [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];
2. Gọi hàm có thể gọi để nhận dạng các địa danh
Để nhận dạng các địa danh trong hình ảnh, hãy gọi hàm có thể gọi bằng cách truyền một yêu cầu JSON Cloud Vision.Trước tiên, hãy khởi tạo một thực thể của Cloud Functions:
Swift
lazy var functions = Functions.functions()
Objective-C
@property(strong, nonatomic) FIRFunctions *functions;
Tạo một yêu cầu có Type (Loại) được đặt thành
LANDMARK_DETECTION
:Swift
let requestData = [ "image": ["content": base64encodedImage], "features": ["maxResults": 5, "type": "LANDMARK_DETECTION"] ]
Objective-C
NSDictionary *requestData = @{ @"image": @{@"content": base64encodedImage}, @"features": @{@"maxResults": @5, @"type": @"LANDMARK_DETECTION"} };
Cuối cùng, hãy gọi hàm:
Swift
do { let result = try await functions.httpsCallable("annotateImage").call(requestData) print(result) } catch { if let error = error as NSError? { if error.domain == FunctionsErrorDomain { let code = FunctionsErrorCode(rawValue: error.code) let message = error.localizedDescription let details = error.userInfo[FunctionsErrorDetailsKey] } // ... } }
Objective-C
[[_functions HTTPSCallableWithName:@"annotateImage"] callWithObject:requestData completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) { if (error) { if ([error.domain isEqualToString:@"com.firebase.functions"]) { FIRFunctionsErrorCode code = error.code; NSString *message = error.localizedDescription; NSObject *details = error.userInfo[@"details"]; } // ... } // Function completed succesfully // Get information about labeled objects }];
3. Nhận thông tin về các địa danh được nhận dạng
Nếu thao tác nhận dạng địa danh thành công, hệ thống sẽ trả về một phản hồi JSON của BatchAnnotateImagesResponse trong kết quả của tác vụ. Mỗi đối tượng trong mảng landmarkAnnotations
đại diện cho một địa danh được nhận dạng trong hình ảnh. Đối với mỗi địa danh, bạn có thể lấy toạ độ giới hạn của địa danh đó trong hình ảnh đầu vào, tên địa danh, vĩ độ và kinh độ, mã nhận dạng thực thể trong Sơ đồ tri thức (nếu có) và điểm số tin cậy của kết quả so khớp. Ví dụ:
Swift
if let labelArray = (result?.data as? [String: Any])?["landmarkAnnotations"] as? [[String:Any]] {
for labelObj in labelArray {
let landmarkName = labelObj["description"]
let entityId = labelObj["mid"]
let score = labelObj["score"]
let bounds = labelObj["boundingPoly"]
// Multiple locations are possible, e.g., the location of the depicted
// landmark and the location the picture was taken.
guard let locations = labelObj["locations"] as? [[String: [String: Any]]] else { continue }
for location in locations {
let latitude = location["latLng"]?["latitude"]
let longitude = location["latLng"]?["longitude"]
}
}
}
Objective-C
NSArray *labelArray = result.data[@"landmarkAnnotations"];
for (NSDictionary *labelObj in labelArray) {
NSString *landmarkName = labelObj[@"description"];
NSString *entityId = labelObj[@"mid"];
NSNumber *score = labelObj[@"score"];
NSArray *bounds = labelObj[@"boundingPoly"];
// Multiple locations are possible, e.g., the location of the depicted
// landmark and the location the picture was taken.
NSArray *locations = labelObj[@"locations"];
for (NSDictionary *location in locations) {
NSNumber *latitude = location[@"latLng"][@"latitude"];
NSNumber *longitude = location[@"latLng"][@"longitude"];
}
}