Voir la traduction automatique
Ceci est une traduction automatique. Pour voir le texte original en anglais cliquez ici
#Actualités du secteur
{{{sourceTextContent.title}}}
Qu'est-il arrivé à la plateforme de reconnaissance faciale précoce d'Intel ?
{{{sourceTextContent.subTitle}}}
Ce qui a commencé comme une caméra de profondeur 2D à 3D a évolué pour inclure des capacités de suivi et de LiDAR.
{{{sourceTextContent.description}}}
La technologie de reconnaissance faciale est l'une des grandes tendances du CES 2020. Ce n'est pas surprenant puisque le marché de la reconnaissance faciale devrait passer de 5,07 milliards de dollars en 2019 à 10,19 milliards de dollars d'ici 2025, selon Mordor Intelligence. Le marché du matériel est segmenté en systèmes de reconnaissance faciale en 2D et 3D, ce dernier étant celui qui devrait connaître la plus forte croissance au cours de la prochaine décennie.
L'une des premières plates-formes matérielles permettant la reconnaissance faciale a été Realsense d'Intel. Lorsque la plateforme a été introduite pour la première fois en 2015, elle a été positionnée comme un moyen pour les PC, les téléphones portables et les systèmes robotiques de voir au-delà des deux dimensions ou de la 2D. Le système basé sur une caméra intelligente était capable de détecter la troisième dimension ou la perception de la profondeur pour mieux comprendre les objets dans son environnement. Depuis sa première introduction en 2015, le système à base de caméra est devenu encore plus petit en taille et encore plus performant grâce aux avantages de la loi de Moore.
L'une des raisons de l'adoption précoce et de la croissance du système était que les développeurs de logiciels avaient un accès libre à toutes les API de Realsense. Ces interfaces interagissaient avec la caméra pour permettre le suivi des mouvements, des expressions faciales - des sourires et des froncements de sourcils aux clins d'œil - et plus encore. Le suivi des gestes a également été fourni pour créer des programmes dans les cas où les utilisateurs ne pouvaient pas vraiment toucher l'écran d'affichage, comme lors de l'utilisation d'une recette de cuisine
"Les ordinateurs commenceront à voir le monde comme nous le faisons", a expliqué Brian Krzanich, alors PDG d'Intel, lors de la conférence de la Society for Information Display en 2015. "Ils se concentreront sur les points clés d'un visage humain plutôt que sur le reste de l'arrière-plan. Lorsque cela se produit, le visage n'est plus un carré (forme 2D) mais fait partie de l'application"
À l'époque, l'une des premières entreprises à adopter cette technologie était JD.com, un distributeur chinois de produits de consommation en ligne. JD.com avait remplacé ses mesures manuelles à la règle à ruban par les dimensions des conteneurs capturées par la plateforme de caméras RealSense. Cette automatisation avait permis de gagner près de 3 minutes par conteneur en temps de mesure
À l'époque, le problème était de passer du calcul en 2D au calcul en 3D, où la troisième dimension signifiait vraiment ajouter la perception de la profondeur. Un exemple de cette dimension supplémentaire a été donné par Ascending Technology, une entreprise allemande qui a utilisé la plateforme Intel pour permettre à un drone à grande vitesse de se déplacer rapidement dans une forêt, y compris par des mouvements de haut en bas. Pour réaliser cet exploit, il a fallu utiliser plusieurs caméras et un processeur.
Maintenant, avançons rapidement jusqu'au CES 2020, où Realsense d'Intel a encore évolué pour devenir une plateforme qui supporte non seulement la perception de la profondeur mais aussi le suivi et les applications LiDAR. Le suivi est réalisé grâce à l'ajout de deux capteurs à lentille fisheye, une unité de mesure inertielle (IMU) et une unité de traitement visuel (VPU) Intel Movidius Myriad 2. Les caméras scrutent les zones environnantes et l'environnement proche. Ces scans sont ensuite utilisés pour construire une carte numérique qui peut être utilisée pour détecter des surfaces et pour des simulations du monde réel.
Une des applications de la perception de la profondeur et du suivi au CES était pour un robot qui suivrait son propriétaire et transporterait des objets. Gita, le robot cargo des fabricants de Vespa, a non seulement suivi son propriétaire, mais a également suivi leur emplacement sur l'étage des exposants du CES.
Le LiDAR (Light Detection and Ranging) était le dernier ajout à la plateforme Realsense. Les caméras LiDAR permettent à l'électronique et aux robots de "voir" et de "sentir" l'environnement. Cette technologie de télédétection mesure la distance à une cible en éclairant la cible avec une lumière laser, puis en mesurant la lumière réfléchie. Il est très précis et est utilisé dans l'industrie automobile pour compléter les caméras à ultrasons et les caméras ordinaires.
Lors du CES 2020, l'une des applications LiDAR les plus en vue était un scan 3D en temps réel du corps entier des personnes. Une autre application du LiDAR était le suivi du mouvement du squelette avec le SDK Cubemos Skeletal tracking, qui se vantait de pouvoir intégrer le suivi du squelette en 2D et 3D dans un programme avec seulement 20 lignes de code. Le SDK a permis de suivre jusqu'à cinq personnes.
Depuis sa sortie il y a plus de 5 ans, la plateforme Realsense d'Intel a été concurrencée par de nombreux concurrents, dont Google Scale, Forge, ThingWorx Industrial IoT et plusieurs autres. Cette saine concurrence témoigne du marché des plateformes de caméra compactes, relativement peu coûteuses, capables de percevoir la profondeur, de suivre des objets et d'utiliser le LiDAR pour scanner des formes.