Améliorer votre Workflow avec l'OCR intégré

Date
July 15, 2025

Qu’est-ce que l’OCR ?

Quel est le but de l'OCR dans Causeway Ermeo ?

Comment utiliser l'OCR dans Causeway Ermeo ?

Utiliser l’OCR via l’API au sein d’un formulaire

Utiliser l’OCR au sein de vos bases de données

Utilisation et mise en place de Lectur’IA dans Causeway Ermeo

1. Qu’est-ce que l’OCR ?

La reconnaissance optique de caractères (OCR) est une fonction qui extrait automatiquement le texte d'une image ou d'un document numérisé (PDF, photo, etc.). Cela vous permet de rechercher, copier ou traiter le contenu du texte sans avoir à le saisir manuellement.

2. Quel est le but de l'OCR dans Causeway Ermeo ?

L'OCR (Reconnaissance Optique de Caractères) vous permet de gagner du temps et d'améliorer la précision des données en automatisant la lecture des documents. Vous pouvez l'utiliser pour :

  • Extraire automatiquement des informations à partir d'une feuille de données ou d'un document papier.
  • Pré-remplir les champs d'un formulaire en numérisant ou en photographiant un document.
  • Conserver des images tout en rendant leur contenu accessible et indexable dans vos bases de données.
image

3. Comment utiliser l'OCR dans Causeway Ermeo ?

Tout d'abord, vous devez demander à débloquer l'OCR pour votre espace de travail.

Vous pouvez directement contacter votre Account Manager ou via un ticket de support.

2 façons d’utiliser l’OCR dans Causeway Ermeo pour 2 usages, via brique API ou via bases de données.

Méthode
API
Bases de données
Type d’analyse
Analyse live en formulaire
Analyse asynchrone
Exemple d’usage
Scanner une fiche technique et vérifier la bonne saisie sur site.
Prise de multiples fiches techniques en mode hors ligne pour analyse par des administrateurs.

Nous prendrons l’exemple de cet affichage dynamique présent au sein d’une usine :

image

Via API :

Dans votre studio d’édition, ajouter une brique photo disponible dans les briques tâches :

image

Afin d’éviter d’y revenir, vous pouvez déjà copier la valeur de la brique :

image

Suite à cela, vous pouvez vous rendre dans les briques Workflows et glisser déposer la brique API. Vous pouvez ensuite cliquer sur “Configurer la requête” matérialisé par une icone ⚙️.

Vous arrivez désormais sur la partie de configuration de la requête, vous pouvez sélectionner “Ermeo Workflows” :

image

En cliquant sur “ ➡️ Suivant”, vous êtes amené à paramétrer la requête. Voici les informations à remplir :

`Méthode : POST`

`URL de la requête : /ocr_analyze_file_Zpv4X2hJ508wt7hF8EEKEEDnyut69cvr`

`Contenu de la requête : JSON`

Comme ci-dessous :

image

En cliquant sur “ ➡️ Suivant” à nouveau, vous êtes amené à indiquer le corps et l’En-têtes de la requête. Voici les informations à remplir :

En-têtes de la requête : ne rien indiquer

Corps de la requête :

{
   "file":{
      "id":"##Tag d’image copié au préalable:id##"
   },
   "questions":{
      "Nom de l’attribut que vous souhaitez récupérer":"Nom de l’attribut que vous souhaitez, question à indiquer en anglais, permettant d’interroger l’image"
   }
}

Exemple ci-dessous avec notre cas d’usage :

{
   "file":{
      "id":"##image_LXsgT0zW:id##"
   },
   "questions":{
      "Productions":"How much asbestos has been produced since 1 January?"
   }
}

En cliquant sur “ ➡️ Suivant” à nouveau, vous pouvez donner un exemple de de photo pour visualiser le résultats, en cliquant sur “Renseigner des tags” :

image

Ici, nous ajoutons la photo de notre cas d’usage, et nous pouvons récupérer les informations de sorties suite à l’OCR :

{ "file": { "id": "##image_LXsgT0zW:id##"
 
	}, 
	
	"questions": { "name": "How much asbestos has been produced since 1 January?" 
	},
	
	"productions": { "name": "573 446"
	}, 
	
	"confidence": { "name": 99 
	}
	 
}

vous avez configuré votre brique API pour l’OCR !

Maintenant, ouvrez une brique texte et indiquer dans la valeur par défaut le tag de l’OCR :

image

Désormais, cliquer sur le stylo :

image

Vous pouvez désormais indiquer ce que vous souhaitez récupérer en l’indiquant dans le JSON Path, ici :

answers.Productions

Vous pouvez désormais directement tester avec la prévisualisation.

Exemple :

image

Via les bases de données :

Une fois que l'OCR a été activé sur votre espace de travail, 2 bases de données seront créées dans votre espace de travail :

  • Base de données Logs OCR
  • Base de données Questions OCR

Le nom de ces bases de données ne pourra pas être modifié.

La base de données OCR Logs sera simplement utilisée pour stocker et conserver les logs. Elle peut être utilisée pour :

  • Diagnostiquer les problèmes (erreurs, défauts)
  • Récupérer des informations (fichier, date)
image

La Base de données Questions OCR va servir à enregistrer les questions relatives à votre analyse d’image.

Pour repartir sur la base de notre exemple :

image

Quatre attributs à indiquer :

OCR - Attribut à remplir
Indiquer le nom de l’attribut que vous souhaitez identifier à l’aide de Lectur’IA.
OCR - Attribut fichier d’origine
Indiquer la nature du fichier d’origine sur lequel l’OCR va être identifié.
OCR - Base de données
Indiquer le nom de la base de données où l’attribut sera renseigné.
OCR - Questions
Indiquer la question à poser pour retrouver votre élément, attention à bien l’indiquer en anglais.

Ensuite, comme le suppose l’attribut “OCR - Base de données” vous pouvez créer la base de données (si ce n’est pas déjà le cas) qui va réceptionner votre image.

Ici, toujours avec le même exemple :

image

3 attributs minimum seront nécessaires pour réaliser l’analyse OCR en base.

OCR - Analyse
Brique Oui/Non pour indiquer si besoin d’une analyse OCR.
Photo
Attribut où l’on va stocker notre image pour analyse.
Productions
Attribut de type texte qui va récupérer le résultat de notre analyse.

Une fois la ressource créer manuellement ou via un formulaire, voici le résultat attendu :

image

Vous êtes désormais autonome pour vos prochaines utilisations de Lectur’IA au sein de Causeway Ermeo, n’hésitez pas à nous contacter pour toutes questions sur son utilisation via le support.