cedric sileo : ingénieur, intelligence artificielle, docteur en sciences

dimanche | 19 novembre 2017
L'IA de Zuckerberg

Mark Zuckerberg souhaite développer sa propre intelligence artificielle

Le créateur de Facebook se donne pour mission cette année de créer un assistant personnel qui l'aidera à gérer son travail et différents éléments à son domicile.

 
Vainqueur: Hubo

Voici «Hubo», le robot tout-terrain vainqueur de la Darpa

«Hubo» le petit robot s'attelle à l'ouverture d'une porte lors d'une épreuve du concours de la Darpa.

«Hubo» le petit robot s'attelle à l'ouverture d'une porte lors d'une épreuve du concours de la Darpa. (Photo Darpa)

Le concours de robotique de l'agence américaine en charge des nouvelles technologies militaires a été remporté samedi par une équipe sud-coréenne.

 

 
Robot blessé

Un robot capable de s'adapter s'il est "blessé"

Un chercheur français de l'INRIA a mis au point un algorithme permettant à un robot « blessé » d'ajuster automatiquement sa manière de fonctionner pour ne pas perdre en autonomie. Il s'agit d'une nouvelle étape dans le développement de l'intelligence des machines.

On imagine facilement un robot prenant la forme d'une araignée incapable de marcher correctement si l'une de ses pattes se retrouve brisée : il peut alors ne plus avancer, ou bien tourner en rond… mais le robot de Jean-Baptiste Mouret, un ingénieur de l'INRIA basé à Villers-lès-Nancy, agit très différemment : si l'une des pattes se casse, il est capable d'adapter sa manière d'avancer pour continuer à évoluer dans sa tâche.

hexapode intelligent


Une situation rendue possible grâce à un algorithme que l'équipe de développeurs assimile à un « instinct ». On pourrait même dire que ce robot est doté d'un instinct de survie qui va le pousser à avancer en boitant. « S'il a un défaut, comme la perte de l'un de ses pieds ou une rotule bloquée, le robot utilise sa caméra embarquée pour détecter ce qui le ralentit ou l'empêche de marcher droit. Plutôt que de tenter de diagnostiquer le problème, le robot va exploiter de nouveaux schémas de mouvements, jusqu'à ce qu'il en trouve un qui lui permette de restaurer un niveau de performance acceptable. »

Un nouveau pas vers l'indépendance


La vidéo, publiée par le site Nature, montre la manière dont le petit robot s'adapte. On le voit essayer plusieurs façons d'avancer, et si les premières ne sont pas efficaces, il ne lui faut que quelques minutes pour trouver la meilleure manière de continuer à évoluer. L'équipe de Jean-Baptiste Mouret a développé pas moins de 13 000 modèles de marche dans lesquels le robot peut puiser selon les situations. 36 paramètres variables permettent à l'hexapode d'affiner sa situation pour s'adapter au mieux.

Selon l'ingénieur, « pratiquement tous les robots pourraient bénéficier de cette technologie ». On imagine aisément les apports d'une telle intelligence artificielle sur des machines, notamment celles qui sont difficiles d'accès pour une réparation : un robot envoyé dans l'espace ou dans une zone radioactive, par exemple. « Nous voulons disposer de robots qui peuvent être utiles sur une longue période, sans humains pour effectuer la maintenance. » On dirait que c'est plutôt bien parti.

Dim lights Embed Embed this video on your site

(Source Clubic)
Merci Laurent !
 
IA maintenant

Deep learning, big data, réseaux de neurones... pourquoi l’intelligence artificielle revient-elle maintenant

Deep learning, big data, réseaux de neurones... pourquoi l’intelligence artificielle revient-elle maintenantDeep learning, big data, réseaux de neurones... pourquoi l’intelligence artificielle revient-elle maintenant

L’intelligence artificielle, grand sujet du moment ? Le terme remonte pourtant aux années 1950 ! Il sonne même de façon presque désuète, en nous ramenant à l’époque où des récits de science-fiction contribuaient à diffuser la peur de machines plus "intelligentes" que l’homme. L’IA revient néanmoins en force, dans de multiples laboratoires prestigieux et de nombreuses start-up. Entraînant dans son sillage les mêmes craintes - exprimées notamment par des personnalités de haut niveau (Bill Gates, Stephen Hawking…) - de voir l’homme dépassé par ses propres créations.

S’il y a un réel renouveau des recherches sur l’intelligence artificielle (IA) et des peurs qu’elles suscitent, c’est que bien des choses ont changé, comme l’apparition de nouvelles technologies d’apprentissage automatique (machine learning), la démocratisation de moyens de calculs puissants, l’accès à des données massives (big data)... Sans parler ses progrès enregistrés dans la conception et la fabrication de puces électroniques qui imitent le fonctionnement du cerveau. Des géants — historiques comme IBM ou récents comme Google et Facebook — sont bien décidés à intégrer toutes ces avancées technologiques pour développer des applications qui vont de la médecine à la robotique, en passant par les fonctions d’assistants numériques personnels, les réseaux sociaux…

Avec le grand retour de l’IA, un autre terme revient lui aussi sur le devant de la scène : le réseau de neurones. Ces logiciels, qui imitent le fonctionnement du cerveau, ont eux aussi une longue histoire. Après plusieurs vagues d’engouements et de déception sur leur capacité à effectuer des tâches vraiment utiles, ils accompagnent aujourd’hui les avancées du "deep learning" ou "apprentissage profond". Il s’agit d’une technique de machine learning (apprentissage automatique) née vers 2006, qui utilise des réseaux de neurones à multiples couches pour effectuer une série de traitements hiérarchisés, dans le but de classer des milliers d’objets en catégories, sans critères prédéfinis. Cet apprentissage, dit "non supervisé", a constitué, semble-t-il, une vraie rupture.

L’AVÈNEMENT DU DEEP LEARNING

En tout cas, deux des plus éminents inventeurs et promoteurs du deep learning (DL) ont été recrutés par Facebook (Yann LeCun, université de New York) et Google (Geoffrey Hinton, université de Toronto). Google a par ailleurs racheté la start-up DeepMind, en pointe dans le domaine. Les deux géants d’Internet ont déjà démontré ce qu’ils pouvaient faire avec le deep learning. Facebook a développé DeepFace, une application de reconnaissance de visages qui atteint des forts taux de réussite (plus de 97 %). Inédit… sauf chez les humains. DeepFace met en œuvre des algorithmes de DL avec un réseau de neurones à 9 couches. Quant à Google, il a effectué l’étonnante démonstration d’un descripteur d’images : un logiciel qui décrit par une phrase le contenu de la scène représentée dans l’image. Le DL et les réseaux de neurones sont ici utilisés pour 1) apprendre à identifier ce que contient l’image, 2) apprendre à le formuler en langage naturel. Car le DL permet aussi des progrès sensibles dans le traitement du langage (synthèse et reconnaissance vocale). Microsoft et Google (dans Androïd) mettent d’ailleurs du deep learning dans leurs nouvelles interfaces vocales, avec une efficacité en nette progression.

 

"Quand il s’agit de combiner des données sous la forme de textes, de résultats d’examens, d’images…, les méthodes statistiques traditionnelles ne suffisent plus"

Nicolas Vayatis, qui dirige le CMLA, un laboratoire de mathématiques appliquées de l’ENS Cachan/CNRS

 

 

Le deep learning est aussi au cœur de Watson — le système IBM de traitement cognitif des données, notamment en langage naturel — qui s’était rendu célèbre en répondant brillamment aux questions d’un jeu télévisé Jeopardi. En fait, Watson utilise le DL couplé avec d’autres techniques de l’intelligence artificielle, et vise bien d’autres applications (médecine, météo, marketing personnalisé…). Si le deep learning s’insinue partout, d’autres techniques d’apprentissage automatique, nées dès les années 1990, ont amené de réels progrès. C'est le cas de l’apprentissage statistique, avec des algorithmes de classification très efficaces sur de grands nombres de données. Ses applications se retrouvent déjà sur le Web (filtres anti-spam, marketing digital, moteur de recommandation…). Et commencent à diffuser dans d’autres domaines, comme le médical. "Quand il s’agit de combiner des données sous la forme de textes, de résultats d’examens, d’images…, les méthodes statistiques traditionnelles ne suffisent plus", indique Nicolas Vayatis, qui dirige le CMLA, un laboratoire de mathématiques appliquées de l’ENS Cachan/CNRS.

LE GRAND RETOUR DU RÉSEAU DE NEURONES

D’autres méthodes en développement intéressent déjà les grands groupes. IBM a créé une équipe de recherche, dans son centre d’Almaden en Californie, axée sur les algorithmes d’apprentissage de Numenta. Cette start-up simule elle aussi des réseaux de neurones, simples, mais avec l’idée d’être aussi fidèle que possible au fonctionnement des neurones biologiques. Les applications visées pourraient concerner le contrôle intelligent de machines, la robotique…

Dans bien des cas, l’usage des techniques d’apprentissage non supervisé est lié à un autre changement majeur des dernières années : l’accès à des masses de données, via internet et les réseaux sociaux. C’est pourquoi machine learning, deep learning et big data sont étroitement liés. Un autre facteur clé est la démocratisation de la puissance de calcul, notamment grâce aux architectures parallèles utilisant des processeurs graphiques (GPU), capables de faire tourner des algorithmes de machine learning en des temps raisonnables.

Mais si les moyens de calcul et simulation ont contribué à la résurgence de l’IA, une autre option poursuit son chemin : construire un "cerveau" dans le silicium, avec des puces électroniques dont l’architecture se calque sur celle des neurones et des synapses. Là encore, l’idée ne date pas d’hier. Mais les progrès commencent à être impressionnants.

LA POUSSÉE DES PUCES NEUROMORPHIQUES

Dernier record en date : 1 million de neurones et 256 millions de synapses sur une puce. C’est IBM qui a réalisé cette puce TrueNorth de 5,4 milliards de transistors en 2014, dans le cadre du projet Synapse financé par l’agence de la défense américaine (Darpa). Conçue pour la détection et l’identification d’objets dans une image (entre autres), cette puce a aussi l’avantage – c’est un point fort des architectures "neuromorphiques" — d’une faible consommation : 70 MW. IBM travaille à interconnecter ses puces TrueNorth, dans le but d’en assembler 4096 pour obtenir un ordinateur de 4 milliards de neurones et 1 000 milliards de synapses… Qui consommera seulement 4 kW !
En Europe, des équipes de l’université de Manchester et de l’université d’Heidelberg travaillent sur des ordinateurs à architectures neuromorphiques. Elles sont associées au projet européen Humain Brain, axé sur l’élucidation du fonctionnement du cerveau humain.

Les progrès de l’intelligence artificielle peuvent donc aussi faire progresser la connaissance du cerveau. Quant à l’usage pratique de futurs ordinateurs neuromorphiques, IBM a déjà son idée. Il envisage d’intégrer des résultats du projet Synapse dans l’offre Watson pour, aux côtés d’autres techniques, créer des systèmes qui sauront apprendre et raisonner, au service des humains.

(Sources Usine Digitale)

 
<< Début < Précédent 1 2 3 4 5 6 7 8 9 10 Suivant > Fin >>
Page 4 sur 22

chef de projet web technologies intelligence information formation chef projet artificielle doctorat informatique maîtrise développement thèse université systèmes recherche société temps base machines machine problèmes connaissances problème techniques exemple système règles internet définition