Le Consumer Electronics Show (CES) est le plus important salon consacré à l’innovation technologique en électronique grand public. Il se tient annuellement à Las Vegas au Nevada et il est organisé par la Consumer Technology Association. On y parle bien entendu d’IA pour le grand public. Ce qui suit est un extrait de l’excellent “Rapport CES 2019″ d’Olivier Ezratty (téléchargeable sur son site, 416 pages au format PDF).
“L’IA était encore plus omniprésente au CES 2019 qu’en 2018. C’en est au point que d’ici quelques années, on n’en parlera probablement plus. Elle se sera fondue dans presque l’intégralité des produits intégrant du logiciel et des données. Dès qu’un produit ou un usage génère des données, chiffres, textes, voix, musique ou images, l’IA peut les exploiter pour réaliser : des prédictions, de la segmentation, de la classification, de la reconnaissance d’objets dans les images, vidéos et le langage.
Au CES 2019, l’IA était surtout visible dans les innombrables produits pilotables par la voix et qui supportent en particulier Google Assistant et Amazon Alexa. Ils rivalisaient dans leur présence sur le salon […] Nombre d’acteurs de l’industrie choisissent l’un ou l’autre, et parfois les deux, et ajoutent des acteurs tiers selon les besoins comme Bixby de Samsung ou Nuance et DuerOS de Baidu ou Tmall Genie d’Alibaba s’ils ciblent le marché chinois.
La liste des appareils à commande vocale continue avec les véhicules à conduite assistée ou autonome, pour tirer la chasse d’eau ou commander son PQ avec les WC connectés de Kohler ou pour piloter le distributeur de croquettes pour chien de Petnet [.…]
De manière plus discrète, l’IA est enfouie dans les objets connectés et systèmes qui réalisent des prédictions et des recommandations. On la trouve ainsi dans les brosses à dents connectées comme dans nombre de systèmes de gestion de la maison connectée.
Les objets les plus polyvalents à base d’IA sont les robots mais ceux que l’on pouvait ob-server au CES 2019 n’allaient pas plus loin qu’en 2018.
L’IA éthique et responsable, respectueuse de la vie privée des utilisateurs était aussi à l’ordre du jour, avec la promesse du « privacy by design » […]
L’un des thèmes clés était celui de l’IA « émotionnelle », vu à différents endroits comme chez le Français Datakalab qui analyse les émotions dans les visages d’audiences, avec le robot du stand de Neurodata Lab qui était capable d’identifier sept émotions différentes de plusieurs personnes et d’y réagir, chez Empath qui analyse les émotions dans la voix, ainsi que chez Nuance avec son assistant vocal Dragon Drive pour les automobilistes qui analyse la tonalité de la voix ainsi que les mouvements des yeux et de la tête, permettant de détecter certaines émotions. Ce dernier exploite les APIs d’Affectiva. Cela permet d’adapter la réponse des systèmes embarqués, jusqu’à créer des publicités ciblées en fonction de ce que les passagers et conducteurs observent à l’extérieur du véhicule.
Toujours sur l’IA, j’ai vu émerger une nouvelle expression, celle de « deep data », utilisée pendant le keynote de Ginni Rometty, la CEO d’IBM. Cela correspond aux vastes données non utilisées. Le monde ne collecterait que 1% des données utiles.”
Merci à Olivier Ezratty pour cet immense travail de collecte de données et d’analyse. Je vous recommande fort de lire l’intégralité du rapport qui est éclairant à plus d’un titre.
Laisser un commentaire