WID n°2106

Le Weekly Innovation Digest, c’est la sélection hebdomadaire des actualités tech & innovantes qui nous ont interpellés : l’Edge Computing, une IA qui dessine, et les MetaHuman d’Unreal Engine.

Pas prêts pour l’Edge Computing 

Vous voyez les objets connectés ? Et bien figurez vous qu’ils génèrent beaucoup de données au quotidien. Ces données, une fois créées, sont alors envoyées sur de gros serveurs pour y être stockées. Une fois enregistrées, elles sont manipulées par des algorithmes. C’est le résultat émis par ces algorithmes en sortie qui revient à votre objet et qui lui permettra de répondre à votre besoin. 

La multiplication des objets connectés risque (en envoyant toujours plus de données sur une route qui garde les mêmes dimensions) de saturer la bande passante et donc d’augmenter le délai de transmission de cette information.

C’est en réponse à ce problème que le concept d’Edge Computing est né.

Comment ça fonctionne ? On optimise les données envoyées depuis l’objet connecté (on ne garde que les données pertinentes et on les compresse pour qu’elles prennent moins de place). Au lieu d’envoyer la totalité des données sur un gros serveur loin (les fermes de stockage de données), on va préférer déporter au plus proche de vous le traitement des informations nécessaires au traitement de la requête. Cette partie des données dont on a besoin rapidement sera traitée sur des serveurs intermédiaires qu’on appelle des nœuds.

Au final, cela permet de diminuer considérablement les volumes de données qui transitent sur le réseau et la distance parcourue par celles-ci, réduisant ainsi les coûts de transmission, la diminution de la latence et l’amélioration de la qualité du service.

Il se trouve qu’aujourd’hui l’infrastructure n’est pas optimale et qu’elle ne pourra pas faire face à la marée noire de données qui arrive très bientôt.

On n’est pas prêt quoi. Comment nous ne sommes pas prêts ? 

Et bien c’est simple, la semaine dernière on est tombés sur cet article très intéressant de Mark Thiele, le CEO de Edgevana.

A lire ici : https://www.linkedin.com/pulse/future-demands-edge-infrastructure-require-rethink-mark-thiele/

Mark Thiele nous fait part de sa discussion avec son pote Rob Hirchfeld (on vous épargne le pedigree de chacun des deux protagonistes mais pour faire court, ce sont deux experts en infrastructures) et nous expose leurs observations. 

Si les possibilités amenées par l’edge computing sont 100x ou même 5x plus grandes que le cloud public actuel, le monde n’a pas à date, l’infrastructure suffisante.

Pour vous donner un ordre d’idée, le cloud mondial repose sur 60 millions de serveurs assortis de plus petits data centers. Si on multiplie par 5 ce chiffre à moyen terme, ça voudrait dire qu’il faudrait 300 millions de serveurs. Pour que le fonctionnement soit optimal, il faudrait augmenter les installations dans quelque 10.000 villes à travers le monde.

Bon bien entendu, ces serveurs prennent de la place, pris un à un, ce n’est pas pas vraiment un sujet mais quand on arrive sur de telles échelles, ça devient une vraie contrainte. 

Donc avec un calcul savant fait par ceux qui savent, que vous pourrez vérifier ici,

Il faudrait une surface dédiée aux serveurs de 7 500 m2 environ dans chaque ville.

Un terrain de foot, en fait. 

De cette perspective, nous n’avons pas l’air prêts. Nous allons avoir besoin de repenser complètement les infrastructures informatiques présentes dans les villes à date et il faudrait le faire assez vite.

Comme on parle d’objets connectés, on parle aussi de serveurs dont les marques qui vendent les produits seront probablement propriétaires. Dans la pratique face à ce calcul théorique, on va avoir une multitudes d’acteurs privés et publics avec des intérêts différents, peut-être même divergents. 

Au Lab 303, on redoute un peu que tout ce beau monde peine à se coordonner et que la transition soit un petit peu difficile parce qu’un peu trop tard. En fait, nous, on craint juste de ne pas être prêts à voir rouler nos chères voitures autonomes. 

IA, Dessine moi un fauteuil avocat.

On est tranquillement en train de se balader sur les internets en quête des meilleures anecdotes de la tech et on tombe sur un étrange fauteuil en forme d’avocat ou encore sur des escargots avec des têtes de harpes. Étrangement surréaliste.

Il s’agit de tests issus d’un modèle de réseau neuronal qui s’appelle Dall.E et les avocats et les escargots bizarres sont un exercice, on comprend mieux. 

OpenAI est une société a “but lucratif plafonné” basée à San Francisco, dont l’objectif est de promouvoir et développer une intelligence artificielle à visage humain qui bénéficiera à toute l’humanité. Rien que ça. 

Ils ont créé par mal de modèles intéressants jusqu’ici et leur crédo c’est d’associer des technologies de reconnaissance de texte et des technologies de reconnaissances d’image pour qu’une seule et même IA puisse mieux comprendre le mécanisme du langage. 

Si je vous dit de ne pas imaginer une pomme. Bon courage. Votre esprit est déjà en train de décomposer, d’interpréter et d’aller fouiller dans sa mémoire pour obtenir le bon résultat. Instantanément. Vous venez de finir de lire cette phrase que je vois votre pomme d’ici.

Bon bah là, il va s’agir de ça, la capacité à se représenter un mot ou une phrase. Toujours dans le but de réussir à « cracker le langage naturel” pour la machine qui est rempli de sous entendus, de nuances et d’allusions très difficiles à identifier pour un ordinateur.

Tout cela va être possible, grâce à deux modèles neuronaux :  

  • Dall.E : capable de créer des images à partir de sa compréhension du texte 
  • CLIP : qui permet de reconnaître une image en fonction de sa description, donc de plusieurs mots – qui va rendre obsolète ces chers captchas images. 

Selon la scientifique en chef de l’équipe “A long terme, on aura des modèles capables de comprendre en même temps le texte et l’image. L’IA sera capable de mieux comprendre le langage parce qu’elle sera capable de visualiser un mot ou une phrase.”

Les résultats sont quand même très encourageants et impressionnants comme avec l’exemple de cette chaise avocat.

“an armchair in the shape of an avocado” – résultats d’un test avec DALL.E.

Au Lab 303, ce genre d’annonces stimulent notre imagination lorsqu’on imagine les applications que cette technologie pourrait apporter et son énorme potentiel sur les nouveaux usages. De la reconnaissance vocale et du NoCode pour monter un prototype en 30 secondes. Coupler cette technologie à l’interface d’une imprimante 3D permettrait d’ouvrir l’usage de ce type de matériel à des populations moins expertes dans la création de modèles 3D.

Unreal Engine – MetaHuman

Il y a quelques semaines, nous vous parlions de Douglas, l’humain artificiel ou encore de Neon avec ses avatars virtuels. Et bien on entre un petit nouveau dans notre benchmark de fortune avec Epic Games, qui fait pas mal couler d’encre cette semaine. 

Epic Games, célèbre éditeur de jeux vidéo, compte par exemple le fameux Fornite dans son catalogue, qui compte plus de 250 millions d’utilisateurs. Vous ne connaissez pas ? Regardez ici.

Mais c’est aussi Epic Games qui se cache derrière le moteur 3D créé en 1998 et baptisé Unreal Engine. Ce moteur est le principal concurrent du plus connu Unity et est utilisé partout ou 3D il y a. 

L’Unreal Engine a fait parler de lui en 2020 avec l’annonce de sa version 5 affichant des performances étonnantes notamment avec l’arrivée de nouvelles cartes graphiques qui exploitent pleinement son potentiel. 

Epic Games frappe une nouvelle fois avec l’annonce de ses MetaHumans, des humains artificiels photoréalistes. Le résultat est assez bluffant.

Mais l’annonce ne s’arrête pas là puisque Epic Games a développé un outil de création d’une grande simplicité qui permet à n’importe qui de créer un avatar en quelques minutes. Et si on va plus loin et qu’on imagine jusqu’où peut aller la création, vous pourriez peut-être même vous faire un double numérique !

Pas besoin d’une très grosse machine pour modéliser votre autre, il ne vous faudra qu’un simple navigateur web, toute la puissance de calcul se trouvant sur le Cloud. Et le plus intéressant ? Le modèle 3D de votre avatar sera exploitable sur n’importe quel autre moteur 3D.

“Vous pouvez manipuler directement les traits du visage, ajuster le teint de la peau et choisir parmi les types de corps, les coiffures, les vêtements prédéfinis, etc. Vous pouvez même modifier les dents de votre personnage. »

– Epic Games

Cet outil va faire gagner énormément de temps aux entreprises de jeux vidéo, mais aussi à toutes les sociétés qui vont avoir besoin d’avatar virtuel pour leurs communications, leurs chatbots vidéo ou pour se créer leurs propres influenceurs ! 

En y ajoutant de l’intelligence, leurs avatars seront de plus en plus crédibles.

Au Lab 303 on a hâte de voir la montée en puissance de ces humains artificiels et de créer le nôtre. Si ça pourrait un peu le faire frissonner, on se dit qu’on revient de loin depuis Clipy (votre assistant pack office préféré) !

Résultat de recherche d'images pour "clippy gif"