Prerequisiti
Prima di iniziare la migrazione del codice, assicurati di soddisfare i seguenti requisiti:
- ML Kit supporta Xcode 13.2.1 o versioni successive.
- ML Kit supporta iOS versione 15.5 o versioni successive.
- ML Kit non supporta le architetture a 32 bit (i386 e armv7). ML Kit supporta le architetture a 64 bit (x86_64 e arm64).
- La libreria ML Kit viene fornita solo come cocoapod. Non puoi combinare framework e cocoapod, quindi per utilizzare questa libreria devi prima eseguire la migrazione per utilizzare cocoapod.
Aggiornare Cocoapods
Aggiorna le dipendenze per i cocoapod ML Kit iOS nel Podfile della tua app:
| API | Nomi dei pod precedenti | Nomi dei nuovi pod |
|---|---|---|
| Scansione di codici a barre | Firebase/MLVision Firebase/MLVisionBarcodeModel |
GoogleMLKit/BarcodeScanning |
| Rilevamento dei volti | Firebase/MLVision Firebase/MLVisionFaceModel |
GoogleMLKit/FaceDetection |
| Etichettatura delle immagini | Firebase/MLVision Firebase/MLVisionLabelModel |
GoogleMLKit/ImageLabeling |
| Rilevamento e monitoraggio degli oggetti | Firebase/MLVisionObjectDetection | GoogleMLKit/ObjectDetection |
| Riconoscimento del testo | Firebase/MLVision Firebase/MLVisionTextModel |
GoogleMLKit/TextRecognition |
| Etichettatura delle immagini AutoML (modello in bundle) | Firebase/MLVisionAutoML | GoogleMLKit/ImageLabelingCustom |
| Etichettatura delle immagini AutoML (download del modello da Firebase) | Firebase/MLVisionAutoML | GoogleMLKit/ImageLabelingCustom GoogleMLKit/LinkFirebase |
| ID lingua | Firebase/MLNaturalLanguage Firebase/MLNLLanguageID |
GoogleMLKit/LanguageID |
| Risposta rapida | Firebase/MLNaturalLanguage Firebase/MLNLSmartReply |
GoogleMLKit/SmartReply |
| Traduci | Firebase/MLNaturalLanguage Firebase/MLNLTranslate |
GoogleMLKit/Translate |
Aggiornare i nomi di classi, enum e tipi
In generale, le classi, gli enum e i tipi devono essere rinominati come segue:
- Swift: rimuovi il prefisso
Visiondai nomi delle classi e dagli enum - Objective-C: sostituisci i prefissi dei nomi delle classi e degli enum
FIRVisioneFIRconMLK
Per alcuni nomi di classi e tipi, questa regola generale non si applica:
Swift
| Classe o tipo precedente | Nuova classe o tipo |
|---|---|
| AutoMLLocalModel | LocalModel |
| AutoMLRemoteModel | CustomRemoteModel |
| VisionBarcodeDetectionCallback | BarcodeScanningCallback |
| VisionBarcodeDetector | BarcodeScanner |
| VisionBarcodeDetectorOptions | BarcodeScannerOptions |
| VisionImage | VisionImage (nessuna modifica) |
| VisionPoint | VisionPoint (nessuna modifica) |
| VisionOnDeviceAutoMLImageLabelerOptions | CustomImageLabelerOptions |
| VisionOnDeviceImageLabelerOptions | ImageLabelerOptions |
Objective-C
| Classe o tipo precedente | Nuova classe o tipo |
|---|---|
| FIRAutoMLLocalModel | MLKLocalModel |
| FIRAutoMLRemoteModel | MLKCustomRemoteModel |
| FIRVisionBarcodeDetectionCallback | MLKBarcodeScanningCallback |
| FIRVisionBarcodeDetector | MLKBarcodeScanner |
| FIRVisionBarcodeDetectorOptions | MLKBarcodeScannerOptions |
| FIRVisionImage | MLKVisionImage |
| FIRVisionOnDeviceAutoMLImageLabelerOptions | MLKCustomImageLabelerOptions |
| FIRVisionOnDeviceImageLabelerOptions | MLKImageLabelerOptions |
| FIRVisionPoint | MLKVisionPoint |
Objective-C
Aggiornare i nomi dei metodi
Aggiorna i nomi dei metodi in base a queste regole:
Le classi dei punti di ingresso del dominio (
Vision,NaturalLanguage) non esistono più. Sono state sostituite da classi specifiche per le attività. Sostituisci le chiamate ai vari metodi di fabbrica per ottenere i rilevatori con chiamate dirette al metodo di fabbrica di ogni rilevatore.La classe
VisionImageMetadataè stata rimossa, insieme all'enumVisionDetectorImageOrientation. Utilizza la proprietàorientationdiVisionImageper specificare l'orientamento di visualizzazione di un'immagine.Il metodo
onDeviceTextRecognizerche ottiene una nuova istanzaTextRecognizerè stato rinominato intextRecognizer.La proprietà di confidenza è stata rimossa dalle classi dei risultati del riconoscimento del testo, tra cui
TextElement,TextLineeTextBlock.I metodi
onDeviceImageLabelereonDeviceImageLabeler(options:)per ottenere una nuova istanzaImageLabelersono stati uniti e rinominati inimageLabeler(options:).Il metodo
objectDetectorper ottenere una nuova istanzaObjectDetectorè stato rimosso. Utilizza inveceobjectDetector(options:).La proprietà
typeè stata rimossa daImageLabelere laentityIDproprietà è stata rimossa dalla classe dei risultati dell'etichettatura delle immagini,ImageLabel.L'API di scansione di codici a barre
detect(in _:, completion:)è stata rinominata inprocess(_:, completion:)per coerenza con altre API Vision.Le API Natural Language ora utilizzano il termine "tag di lingua" (come definito dallo standard BCP-47) anziché "codice lingua".
TranslateLanguageora utilizza nomi leggibili (ad es. .english) per le costanti anziché tag di lingua ( ad es. .en).
Ecco alcuni esempi di metodi Swift precedenti e nuovi:
Precedente
let options = VisionOnDeviceImageLabelerOptions()
options.confidenceThreshold = 0.75
let labeler = Vision.vision().onDeviceImageLabeler(options: options)
let detector = Vision.vision().faceDetector(options: options)
let localModel = AutoMLLocalModel(manifestPath: "automl/manifest.json")
let options = VisionOnDeviceAutoMLImageLabelerOptions(localModel: localModel)
options.confidenceThreshold = 0.75
let labeler = vision.onDeviceAutoMLImageLabeler(options: options)
let detector = Vision.vision().objectDetector()
Nuovo
let options = ImageLabelerOptions()
options.confidenceThreshold = NSNumber(value:0.75)
let labeler = ImageLabeler.imageLabeler(options: options)
let detector = FaceDetector.faceDetector(options: options)
let localModel = LocalModel(manifestPath: "automl/manifest.json")
let options = CustomImageLabelerOptions(localModel: localModel)
options.confidenceThreshold = NSNumber(value:0.75)
let labeler = ImageLabeler.imageLabeler(options: options)
let detector = ObjectDetector.objectDetector(options: ObjectDetectorOptions())
Ecco alcuni esempi di metodi Objective-C precedenti e nuovi:
Precedente
FIRVisionOnDeviceImageLabelerOptions *options = [[FIRVisionOnDeviceImageLabelerOptions alloc] init]; options.confidenceThreshold = 0.75; FIRVisionImageLabeler *labeler = [[FIRVision vision] onDeviceImageLabelerWithOptions:options]; FIRVisionFaceDetector *detector = [[FIRVision vision] faceDetectorWithOptions: options]; FIRAutoMLLocalModel *localModel = [[FIRAutoMLLocalModel alloc] initWithManifestPath:@"automl/manifest.json"]; FIRVisionOnDeviceAutoMLImageLabelerOptions *options = [[FIRVisionOnDeviceAutoMLImageLabelerOptions alloc] initWithLocalModel: localModel]; options.confidenceThreshold = 0.75 FIRVisionImageLabeler *labeler = [[FIRVision vision] onDeviceAutoMLImageLabelerWithOptions:options]; FIRVisionObjectDetector *detector = [[FIRVision vision] objectDetector];
Nuovo
MLKImageLabelerOptions *options = [[MLKImageLabelerOptions alloc] init]; options.confidenceThreshold = @(0.75); MLKImageLabeler *labeler = [MLKImageLabeler imageLabelerWithOptions:options]; MLKFaceDetector *detector = [MLKFaceDetector faceDetectorWithOptions:options]; MLKLocalModel *localModel = [[MLKLocalModel alloc] initWithManifestPath:@"automl/manifest.json"]; MLKCustomImageLabelerOptions *options = [[MLKCustomImageLabelerOptions alloc] initWithLocalModel:localModel]; options.confidenceThreshold = @(0.75) MLKImageLabeler *labeler = [MLKImageLabeler imageLabelerWithOptions:options]; MLKObjectDetectorOptions *options = [[MLKObjectDetectorOptions alloc] init]; MLKObjectDetector *detector = [MLKObjectDetector objectDetectorWithOptions:options];
Modifiche specifiche dell'API
Rilevamento e monitoraggio degli oggetti
Se la tua app utilizza la classificazione degli oggetti, tieni presente che il nuovo SDK ha modificato il modo in cui restituisce la categoria di classificazione per gli oggetti rilevati.
VisionObjectCategory in VisionObject viene restituito come text in un oggetto ObjectLabel, anziché come un numero intero. Tutte le possibili categorie di stringhe sono incluse nell'enum DetectedObjectLabel.
Tieni presente che la categoria .unknown è stata rimossa. Quando la confidenza della classificazione di un oggetto è bassa, il classificatore non restituisce alcuna etichetta.
Ecco un esempio del codice Swift precedente e nuovo:
Precedente
if (object.classificationCategory == .food) {
...
}Nuovo
if let label = object.labels.first {
if (label.text == DetectedObjectLabel.food.rawValue) {
...
}
}
// or
if let label = object.labels.first {
if (label.index == DetectedObjectLabelIndex.food.rawValue) {
...
}
}Ecco un esempio del codice Objective-C precedente e nuovo:
Precedente
if (object.classificationCategory == FIRVisionObjectCategoryFood) {
...
}Nuovo
if ([object.labels[0].text isEqualToString:MLKDetectedObjectLabelFood]) {
...
}
// or
if ([object.labels[0].index == MLKDetectedObjectLabelIndexFood]) {
...
}Rimuovere le dipendenze di Firebase (facoltativo)
Questo passaggio si applica solo quando sono soddisfatte le seguenti condizioni:
- Firebase ML Kit è l'unico componente Firebase che utilizzi
- Utilizzi solo le API su dispositivo
- Non utilizzi l'erogazione del modello
In questo caso, puoi rimuovere le dipendenze di Firebase dopo la migrazione. Procedi nel seguente modo:
- Rimuovi il file di configurazione di Firebase eliminando il file GoogleService-Info.plist dalla directory dell'app e dal progetto Xcode.
- Rimuovi qualsiasi cocoapod Firebase, ad esempio
pod 'Firebase/Analytics', dal Podfile. - Rimuovi qualsiasi inizializzazione di FirebaseApp, ad esempio
FirebaseApp.configure()dal codice. - Elimina l'app Firebase nella Console Firebase seguendo le istruzioni riportate sul sito di assistenza di Firebase.
Risorse di assistenza
Se riscontri problemi, consulta la nostra pagina della community, dove sono descritti i canali disponibili per contattarci.