AzureComputerVisionConnector
Accède au service Azure Computer Vision pour détecter les objets dans les images.
Cas d'utilisation courants
Soumettre un texte au service Azure Computer Vision pour
- Détecter des objets individuels
- Décrire des contenus généraux
Comment fonctionne-t-il ?
AzureComputerVisionConnector utilise les informations d'identification de votre compte Azure Cognitive Services (soit via une connexion web FME précédemment définie, soit en configurant une nouvelle connexion web FME directement depuis le Transformer) pour accéder au service.
Il soumet des images au service et renvoie des entités avec des attributs qui décrivent le contenu de l'image. Les services pris en charge sont la détection d'objets, la détection de texte et la détection de visages.
- Pour la détection d'objet, si le service est capable d'identifier l'emplacement exact de l'objet de l'image, une géométrie de rectangle englobant sera aussi renvoyée.
- La détection de texte retourne toujours des rectangles englobants autour du texte détecté.
- Pour la détection des visages, si le service est capable d'identifier l'emplacement exact d'un visage dans l'image, une géométrie de la boîte englobante sera également renvoyée. Il est également possible de détecter et de localiser les points de repère du visage.
Notes
- Pour une meilleure performance, les demandes au service de vision par ordinateur sont faites en parallèle et sont retournées dès qu'elles sont terminées. Par conséquent, les résultats de la détection ne seront pas renvoyés dans le même ordre que les demandes qui leur sont associées.
- Bien que puissante, l'utilisation de l'IA a des implications juridiques et éthiques importantes. Consultez votre législation locale en matière d'IA et vos directives éthiques avant d'appliquer le connecteur AzureComputerVisionConnector dans un environnement de production. Pour plus d'informations sur la confidentialité et la conformité en ce qui concerne Azure Cognitive Services, veuillez consulter https://azure.microsoft.com/en-ca/support/legal/cognitive-services-compliance-and-privacy.
Configuration
Ports d'entrée
Ce Transformer accepte n'importe quelle entité. Les géométries raster peuvent être utilisées comme entrée si Géométrie raster est sélectionné comme source d'image.
Note: AzureComputerVisionConnector ne prend pas en charge les systèmes de coordonnées.
Ports de sortie
Les résultats dépendront de l'analyse choisie. Chaque entité d'entrée peut donner lieu à plusieurs entités de sortie. Par exemple, une seule image est susceptible de contenir plusieurs objets détectables.
Détection d'objets
Les objets identifiés avec succès donneront lieu à des entités de sortie avec des attributs décrivant les objets. Une géométrie de la boîte de délimitation peut également être renvoyée, avec une valeur de confiance distincte. Chaque image d'entrée peut donner lieu à plusieurs entités de détection. Les boîtes de délimitation sont en unités de pixel, et seront alignées avec l'entrée.
Attributs
_label |
Un mot ou une courte phrase décrivant le contenu de l'image. Les étiquettes peuvent être des descripteurs généraux de l'image ou faire référence à des instances identifiables dans l'image. Par exemple, une étiquette "Végétation" sans boîte englobante indique qu'il y a des plantes quelque part dans l'image. Une étiquette "Abies" avec une boîte englobante peut indiquer qu'il y a un sapin dans le coin supérieur gauche. |
_confidence |
Un nombre entre 0 et 100 qui indique la probabilité que la prédiction données soit correcte. |
Détection de texte
Un texte identifié avec succès donnera lieu à des entités de sortie avec des attributs décrivant le texte. Les entités seront produites pour les lignes de texte, et pour les mots individuels de chaque ligne. Chaque entité aura une boîte de délimitation pour la ligne ou le mot.
Quand vous utilisez un fichier local, une géométrie raster ou une URL en entrée, le rectangle englobant est en unités pixels et est aligné avec l'entrée.
Attributs
_text |
Le texte détecté dans la ligne ou le mot. |
_type |
Le type de texte détecté. Les lignes sont des sections de texte qui sont alignées sur le même axe horizontal. Les phrases peuvent être réparties sur plusieurs lignes. Les mots sont des sections de texte séparées par des espaces, et sont associés à des lignes parentes. Options : LINE, WORD |
_id |
Le numéro identifiant l'entité. Si l'entité représente une ligne de texte, l'identifiant est unique dans l'image. Si l'entité représente un mot, l'identifiant est unique dans la ligne mère. |
_parent_id |
La valeur _id de la ligne dans laquelle se trouve le mot. Cette valeur est null pour les lignes. |
Détection de visage
Les visages identifiés avec succès donneront lieu à des entités de sortie avec des attributs décrivant le visage. Une géométrie de la boîte de délimitation sera également renvoyée, avec une valeur de confiance distincte. Chaque image d'entrée peut donner lieu à plusieurs entités de détection. Les boîtes englobantes sont en unités de pixel, et seront alignées avec l'entrée.
Attributs
Les attributs suivants sont retournés :
_age, _gender, _smile, _emotion_anger, _emotion_contempt, _emotion_disgust, _emotion_fear, _emotion_happiness, _emotion_neutral, _emotion_sadness, _emotion_surprise, _facial_hair_beard, _facial_hair_moustache, _facial_hair_sideburns, _head_pose_pitch, _head_pose_roll, _head_pose_yaw, _glasses, _hair_bald, _makeup_eye, _makeup_lip, _accessories{}.type, _accessories{}.confidence, _blur_level, _blur_value, _exposure_level, _exposure_value, _noise_level, _noise_value, _hair_color{}.value, _hair_color{}.confidence
La sortie dépendra de l'analyse choisie. Une seule entité de résumé de sortie sera produite par entité d'entrée.
Détection d'objets
Une entité de résumé avec la géométrie et les attributs d'origine préservés sera toujours produite par le port Résumé. Des attributs seront ajoutés pour indiquer les étiquettes qui s'appliquent à l'image en général, et non à une zone spécifique.
Attributs
_labels{}.confidence |
Un nombre entre 0 et 100 qui indique la probabilité pour que l'étiquette donnée soit correcte. |
_labels{}.name |
Un mot ou une phrase décrivant le contenu de l'image. |
Détection de texte
Une entité de résumé avec la géométrie et les attributs originaux préservés sera toujours produite par le port Résumé. Des attributs seront ajoutés pour indiquer le nombre de lignes et de mots détectés.
Attributs
_detected_words |
Le nombre de mots qui sont détectés dans l'image. |
_detected_lines |
Le nombre de lignes de texte qui sont détectées dans l'image. |
Détection de visage
Un résumé qui contient les détails sur le total de nombre de visages détectés dans l'image.
Attributs
_detected_ faces |
Le nombre de visages qui sont détectés dans l'image. |
L'entité entrante ressort par ce port.
Les entités qui provoquent l'échec de l'opération ressortent par ce port. Un attribut fme_rejection_code, ayant la valeur ERROR_DURING_PROCESSING, sera ajouté, ainsi qu'un attribut fme_rejection_message plus descriptif qui contient des détails plus spécifiques sur la raison de l'échec.
Note: Si une entité entrant dans AzureComputerVisionConnector possède déjà une valeur pour fme_rejection_code, cette valeur est supprimée.
Gestion des entités rejetées : ce paramètre permet d'interrompre la traduction ou de la poursuivre lorsqu'elle rencontre une entité rejetée. Ce paramètre est disponible à la fois comme option par défaut de FME et comme paramètre de traitement.
Paramètres
Pour utiliser AzureTextAnalyticsConnector ou AzureComputerVisionConnector, vous aurez besoin d'un compte Cognitive Services puis de générer un point de terminaison et une clé pour vous identifier via les Connectors de FME.
Source des identifiants |
Le connecteur AzureComputerVisionConnector peut utiliser des informations d'identification provenant de différentes sources. L'utilisation d'une connexion Web s'intègre mieux à FME, mais dans certains cas, vous pouvez souhaiter utiliser l'une des autres sources.
|
Compte |
Disponible lorsque la source d'accréditation est une connexion web. Pour créer une connexion Azure Cognitive Services, cliquez sur le menu déroulant "Compte" et sélectionnez "Ajouter une connexion Web...". La connexion pourra ensuite être gérée via Outils -> Options FME... -> Connexions Web. |
Point de terminaison et clé secrète |
Disponible lorsque la source d'accréditation est Intégré. Un point de terminaison et une clé secrète peuvent être spécifiés directement dans le Transformer plutôt que dans une connexion web. |
Image Source |
Où obtenir l'image d'entrée pour la détection. Les options sont les suivantes :
|
Nom du fichier en entrée |
Si Fichier local est sélectionné pour la source de l'image, le chemin vers le fichier JPEG ou PNG à utiliser. |
URL |
Si URL est sélectionné pour la source de l'image, l'URL source à utiliser. |
Type de détection |
Le type d'opération à effectuer. Les choix possibles sont :
|
Les autres paramètres disponibles dépendent de la valeur du paramètre Requête > Type de détection. Les paramètres de chaque type de détection sont détaillés ci-dessous.
Options de détection d'objet
La détection d'objet ne requiert aucun paramètre additionnel.
Options de détection de texte
Langue d'analyse de texte |
La langue à détecter. Le code de la langue doit être utilisé pour la valeur de l'attribut (par exemple, "en"). Utilisez "Unknown [unk]" pour la détection automatique de la langue. |
Options de détection de visage
Générer les points de repères faciaux |
L'inclusion ou non d'informations sur les repères faciaux dans les entités de sortie. |
Éditer les paramètres des Transformers
À l'aide d'un ensemble d'options de menu, les paramètres du Transformer peuvent être attribués en faisant référence à d'autres éléments de traitement. Des fonctions plus avancées, telles qu'un éditeur avancé et un éditeur arithmétique, sont également disponibles dans certains Transformers. Pour accéder à un menu de ces options, cliquez sur à côté du paramètre applicable. Pour plus d'informations, voir Options de menus et paramètres de Transformer.
Définir les valeurs
Il existe plusieurs façons de définir une valeur à utiliser dans un Transformer. La plus simple est de simplement taper une valeur ou une chaîne de caractères, qui peut inclure des fonctions de différents types comme des références d'attributs, des fonctions mathématiques et de chaînes de caractères, et des paramètres de traitement. Il existe un certain nombre d'outils et de raccourcis qui peuvent aider à construire des valeurs, généralement disponibles dans le menu contextuel déroulant adjacent au champ de valeur.
Utilisation de l'éditeur de texte
L'éditeur de texte fournit un moyen efficace de construire des chaînes de textes (dont les expressions régulières) à partir de données source diverses, telles que des attributs, des paramètres et des constantes, et le résultat est directement utilisé dans le paramètre.
Utilisation de l'éditeur arithmétique
L'éditeur arithmétique fournit un moyen simple de construire des expressions mathématiques à partir de plusieurs données source, telles que des attributs et des fonctions, et le résultat est directement utilisé dans un paramètre.
Valeur conditionnelle
Définit des valeurs selon un ou plusieurs tests.
Fenêtre de définition de conditions
Contenu
Les expressions et chaînes de caractères peuvent inclure des fonctions, caractères, paramètres et plus.
Lors du paramétrage des valeurs - qu'elles soient entrées directement dans un paramètre ou construites en utilisant l'un des éditeurs - les chaînes de caractères et les expressions contenant des fonctions Chaîne de caractères, Math, Date et heure ou Entité FME auront ces fonctions évaluées. Par conséquent, les noms de ces fonctions (sous la forme @<nom_de_fonction>) ne doivent pas être utilisés comme valeurs littérales de chaîne de caractères.
Ces fonctions manipulent les chaînes de caractères. | |
Caractères spéciaux |
Un ensemble de caractères de contrôle est disponible dans l'éditeur de texte. |
Plusieurs fonctions sont disponibles dans les deux éditeurs. | |
Fonctions Date/heure | Les fonctions de dates et heures sont disponibles dans l'Editeur texte. |
Ces opérateur sont disponibles dans l'éditeur arithmétique. | |
Elles retournent des valeurs spécifiques aux entités. | |
Les paramètres FME et spécifiques au traitement peuvent être utilisés. | |
Créer et modifier un paramètre publié | Créer ses propres paramètres éditables. |
Options - Tables
Les Transformers avec des paramètres de style table possèdent des outils additionnels pour remplir et manipuler des valeurs.
Réordonner
|
Activé une fois que vous avez cliqué sur un élément de ligne. Les choix comprennent :
|
Couper, Copier et Coller
|
Activé une fois que vous avez cliqué sur un élément de ligne. Les choix comprennent :
Copier, copier et coller peuvent être utilisés au sein d'un Transformer ou entre Transfromers. |
Filtre
|
Commencez à taper une chaîne de caractères, et la matrice n'affichera que les lignes correspondant à ces caractères. Recherche dans toutes les colonnes. Cela n'affecte que l'affichage des attributs dans le Transformer - cela ne change pas les attributs qui sont sortis. |
Importer
|
Le bouton d'import remplit la table avec un jeu de nouveaux attributs lus depuis un jeu de données. L'application spécifique varie selon les Transformers. |
Réinitialiser/Rafraîchir
|
Réinitialise la table à son état initial, et peut fournir des options additionnelles pour supprimer des entrées invalides. Le comportement varie d'un Transformer à l'autre. |
Note : Tous les outils ne sont pas disponibles dans tous les Transformers.
Références
Comportement |
|
Stockage des entités |
Non |
Dépendances | Compte Azure Cognitive Services. |
Alias | |
Historique | Implémenté dans FME 2019.2 |
FME Community
FME Community est l'endroit où trouver des démos, des tutoriaux, des articles, des FAQ et bien plus encore. Obtenez des réponses à vos questions, apprenez des autres utilisateurs et suggérez, votez et commentez de nouvelles entités.
Voir tous les résultats à propos de ce Transformer sur FME Community.
Les exemples peuvent contenir des informations sous licence Open Government - Vancouver et/ou Open Government - Canada.