Ajouter la classification du texte sur l'appareil à votre application avec TensorFlow Lite et Firebase (atelier de programmation iOS)

1. Présentation

écran_résultat_classification.png

Bienvenue dans l'atelier de programmation sur la classification de texte avec TensorFlow Lite et Firebase. Dans cet atelier de programmation, vous allez apprendre à utiliser TensorFlow Lite et Firebase pour entraîner et déployer un modèle de classification de texte dans votre application. Cet atelier de programmation est basé sur cet exemple TensorFlow Lite.

La classification de texte consiste à attribuer des balises ou des catégories à un texte en fonction de son contenu. Il s'agit de l'une des tâches fondamentales du traitement du langage naturel (TLN) avec de vastes applications telles que l'analyse des sentiments, l'étiquetage de sujets, la détection de spam et la détection d'intents.

L'analyse des sentiments est l'interprétation et la classification des émotions (positives, négatives et neutres) dans des données textuelles à l'aide de techniques d'analyse de texte. L'analyse des sentiments permet aux entreprises d'identifier le sentiment des clients à l'égard de leurs produits, marques ou services dans le cadre de conversations et de commentaires en ligne.

Ce tutoriel explique comment créer un modèle de machine learning pour l'analyse des sentiments, en particulier pour classer du texte comme positif ou négatif. Il s'agit d'un exemple de classification binaire (ou à deux classes), un type de problème de machine learning important et largement applicable.

Points abordés

  • Entraîner un modèle d'analyse des sentiments TF Lite avec TensorFlow Lite Model Maker
  • Déployez des modèles TF Lite dans Firebase ML et accédez-y depuis votre application
  • Suivez les commentaires des utilisateurs pour mesurer la précision d'un modèle avec Firebase Analytics
  • Profiler les performances du modèle via Firebase Performance Monitoring
  • Sélectionnez le modèle déployé qui est chargé via Remote Config
  • Tester différents modèles via Firebase A/B Testing

Prérequis

  • Xcode 11 (ou version ultérieure)
  • CocoaPods 1.9.1 (ou version ultérieure)

Comment allez-vous utiliser ce tutoriel ?

Je vais le lire uniquement Je vais le lire et effectuer les exercices

Comment évalueriez-vous votre expérience en matière de création d'applications Android ?

Débutant Intermédiaire Expert

2. Créer un projet dans la console Firebase

Ajouter Firebase au projet

  1. Accédez à la console Firebase.
  2. Sélectionnez Create New Project (Créer un projet) et nommez votre projet "Firebase ML iOS Codelab".

3. Obtenir l'exemple de projet

Télécharger le code

Commencez par cloner l'exemple de projet et exécuter pod update dans le répertoire du projet :

git clone https://github.com/FirebaseExtended/codelab-textclassification-ios.git
cd codelab-textclassification-ios
pod install --repo-update

Si vous n'avez pas installé git, vous pouvez également télécharger l'exemple de projet à partir de sa page GitHub ou en cliquant sur ce lien. Une fois que vous avez téléchargé le projet, exécutez-le dans Xcode et testez la classification de texte pour vous faire une idée de son fonctionnement.

Configurer Firebase

Suivez la documentation pour créer un projet Firebase. Une fois que vous avez votre projet, téléchargez le fichier GoogleService-Info.plist de votre projet depuis la console Firebase, puis faites-le glisser vers la racine du projet Xcode.

9efb62a92f27e939.png

Ajoutez Firebase à votre Podfile et exécutez l'installation du pod.

pod 'FirebaseMLModelDownloader', '9.3.0-beta'

Dans la méthode didFinishLaunchingWithOptions de AppDelegate, importez Firebase en haut du fichier.

import FirebaseCore

Ajoutez un appel pour configurer Firebase.

FirebaseApp.configure()

Exécutez à nouveau le projet pour vous assurer que l'application est correctement configurée et qu'elle ne plante pas au lancement.

4. Entraîner un modèle d'analyse des sentiments

Nous allons utiliser TensorFlow Lite Model Maker pour entraîner un modèle de classification de texte afin de prédire l'opinion d'un texte donné.

Cette étape se présente sous la forme d'un notebook Python que vous pouvez ouvrir dans Google Colab.

Ouvrir dans Colab

Une fois cette étape terminée, vous disposerez d'un modèle d'analyse de l'opinion TensorFlow Lite prêt à être déployé dans une application mobile.

5. Déployer un modèle dans Firebase ML

Déployer un modèle dans Firebase ML est utile pour deux raisons principales :

  1. Nous pouvons limiter la taille d'installation de l'application et ne télécharger le modèle que si nécessaire.
  2. Le modèle peut être mis à jour régulièrement et avec un cycle de publication différent de celui de l'ensemble de l'application

Le modèle peut être déployé via la console ou de manière programmatique à l'aide du SDK Admin Firebase. À cette étape, nous allons procéder au déploiement via la console.

Tout d'abord, ouvrez la console Firebase et cliquez sur "Machine Learning" dans le panneau de navigation de gauche. Cliquez sur "Commencer". si vous l'ouvrez pour la première fois. Accédez ensuite à "Personnalisé" puis cliquez sur "Ajouter un modèle" .

Lorsque vous y êtes invité, nommez le modèle sentiment_analysis et importez le fichier que vous avez téléchargé depuis Colab à l'étape précédente.

3c3c50e6ef12b3b.png

6. Télécharger le modèle depuis Firebase ML

Choisir le moment où télécharger le modèle distant depuis Firebase dans votre application peut s'avérer délicat, car les modèles TFLite peuvent devenir relativement volumineux. Idéalement, nous voulons éviter de charger le modèle immédiatement au lancement de l'application, car si notre modèle est utilisé pour une seule fonctionnalité et que l'utilisateur n'utilise jamais cette fonctionnalité, nous aurons téléchargé une quantité importante de données sans raison. Nous pouvons également définir des options de téléchargement, telles que l'extraction des modèles uniquement lorsque vous êtes connecté au Wi-Fi. Si vous souhaitez vous assurer que le modèle est disponible même sans connexion réseau, il est important de l'empaqueter également sans l'application en guise de sauvegarde.

Par souci de simplicité, nous allons supprimer le modèle groupé par défaut et toujours télécharger un modèle depuis Firebase lorsque l'application démarre pour la première fois. Ainsi, lorsque vous effectuez une analyse des sentiments, vous avez la certitude que l'inférence s'exécute avec le modèle fourni par Firebase.

En haut de ModelLoader.swift, importez le module Firebase.

import FirebaseCore
import FirebaseMLModelDownloader

Implémentez ensuite les méthodes suivantes.

static func downloadModel(named name: String,
                          completion: @escaping (CustomModel?, DownloadError?) -> Void) {
  guard FirebaseApp.app() != nil else {
    completion(nil, .firebaseNotInitialized)
    return
  }
  guard success == nil && failure == nil else {
    completion(nil, .downloadInProgress)
    return
  }
  let conditions = ModelDownloadConditions(allowsCellularAccess: false)
  ModelDownloader.modelDownloader().getModel(name: name, downloadType: .localModelUpdateInBackground, conditions: conditions) { result in
          switch (result) {
          case .success(let customModel):
                  // Download complete.
                  // The CustomModel object contains the local path of the model file,
                  // which you can use to instantiate a TensorFlow Lite classifier.
                  return completion(customModel, nil)
          case .failure(let error):
              // Download was unsuccessful. Notify error message.
            completion(nil, .downloadFailed(underlyingError: error))
          }
  }
}

Dans le viewDidLoad de ViewController.swift, remplacez l'appel à loadModel() par notre nouvelle méthode de téléchargement de modèle.

// Download the model from Firebase
print("Fetching model...")
ModelLoader.downloadModel(named: "sentiment_analysis") { (customModel, error) in
  guard let customModel = customModel else {
    if let error = error {
      print(error)
    }
    return
  }

  print("Model download complete")

  // TODO: Initialize an NLClassifier from the downloaded model
}

Réexécutez votre application. Après quelques secondes, vous devriez voir un journal dans Xcode indiquant que le modèle distant a bien été téléchargé. Essayez de saisir du texte et vérifiez que le comportement de l'application n'a pas changé.

7. Intégrer le modèle dans votre application

La bibliothèque de tâches TensorFlow Lite vous aide à intégrer des modèles TensorFlow Lite à votre application avec quelques lignes de code. Nous allons initialiser une instance TFLNLClassifier à l'aide du modèle TensorFlow Lite téléchargé depuis Firebase. Nous l'utiliserons ensuite pour classer le texte saisi par les utilisateurs de l'application et afficher le résultat dans l'UI.

Ajouter la dépendance

Accédez au Podfile de l'application et ajoutez la bibliothèque de tâches TensorFlow Lite (Text) aux dépendances de l'application. Veillez à ajouter la dépendance sous la déclaration target 'TextClassification'.

pod 'TensorFlowLiteTaskText', '~> 0.2.0'

Exécutez pod install pour installer la nouvelle dépendance.

Initialiser un classificateur de texte

Nous allons ensuite charger le modèle d'analyse des sentiments téléchargé depuis Firebase à l'aide de NLClassifier de la bibliothèque de tâches.

ViewController.swift

Déclarons une variable d'instance TFLNLClassifier. En haut du fichier, importez la nouvelle dépendance :

import TensorFlowLiteTaskText

Vous trouverez ce commentaire au-dessus de la méthode que nous avons modifiée à la dernière étape:

// TODO: Add a TFLNLClassifier property.

Remplacez TODO par le code suivant :

private var classifier: TFLNLClassifier?

Initialisez la variable textClassifier avec le modèle d'analyse du sentiment téléchargé depuis Firebase. Recherchez le commentaire que nous avons ajouté à l'étape précédente :

// TODO: Initialize an NLClassifier from the downloaded model

Remplacez TODO par le code suivant:

let options = TFLNLClassifierOptions()
self.classifier = TFLNLClassifier.nlClassifier(modelPath: customModel.path, options: options)

Classer du texte

Une fois l'instance classifier configurée, vous pouvez exécuter l'analyse du sentiment avec un seul appel de méthode.

ViewController.swift

Dans la méthode classify(text:), recherchez le commentaire TODO :

// TODO: Run sentiment analysis on the input text

Remplacez le commentaire par le code suivant:

guard let classifier = self.classifier else { return }

// Classify the text
let classifierResults = classifier.classify(text: text)

// Append the results to the list of results
let result = ClassificationResult(text: text, results: classifierResults)
results.append(result)

8. Exécuter l'application finale

Vous avez intégré le modèle d'analyse des sentiments à l'application. Nous allons donc le tester. Connectez votre appareil iOS, puis cliquez sur Run (Exécuter) (execute.png) dans la barre d'outils Xcode.

L'application devrait être capable de prédire correctement le sentiment de la critique de film que vous saisissez.

classification_result_screen.png

9. Optimiser l'application avec d'autres fonctionnalités Firebase

En plus d'héberger vos modèles TFLite, Firebase offre plusieurs autres fonctionnalités pour optimiser vos cas d'utilisation du machine learning:

  • Firebase Performance Monitoring pour mesurer la vitesse d'inférence de votre modèle s'exécutant sur les appareil.
  • Firebase Analytics pour mesurer les performances de votre modèle en production en mesurant la réaction des utilisateurs.
  • Firebase A/B Testing pour tester plusieurs versions de votre modèle
  • Vous souvenez-vous que nous avons entraîné deux versions de notre modèle TFLite précédemment ? Les tests A/B sont un bon moyen de déterminer quelle version est la plus performante en production.

Pour en savoir plus sur l'utilisation de ces fonctionnalités dans votre application, consultez les ateliers de programmation ci-dessous:

10. Félicitations !

Dans cet atelier de programmation, vous avez appris à entraîner un modèle TFLite d'analyse des sentiments et à le déployer dans votre application mobile à l'aide de Firebase. Pour en savoir plus sur TFLite et Firebase, consultez d'autres exemples de TFLite et les guides de démarrage de Firebase.

Points abordés

  • TensorFlow Lite
  • Firebase ML

Étapes suivantes

  • Mesurez la vitesse d'inférence de votre modèle avec Firebase Performance Monitoring.
  • Déployez le modèle directement dans Firebase depuis Colab via l'API Firebase ML Model Management.
  • Ajoutez un mécanisme permettant aux utilisateurs d'envoyer des commentaires sur le résultat de la prédiction et utilisez Firebase Analytics pour suivre leurs commentaires.
  • Effectuez des tests A/B sur le modèle de vecteur de mots moyen et le modèle MobileBERT avec Firebase A/B Testing.

En savoir plus

Vous avez une question ?

Signaler des problèmes