En ce moment

Titre

Artiste

[qt-onairmini]

[qt-onairmini]


« Dans l’Intelligence Artificielle, il n’y aura pas la victoire d’une entreprise sur une autre » dit Yann LeCun

Écrit par le 10 avril 2024


[ad_1]

C’est la star mondiale de l’intelligence artificielle — et le Français le plus connu du secteur. De passage à Paris, Yann LeCun, vice-président de Meta, qui pilote la politique scientifique du groupe en IA, s’est confié aux « Echos » sur l’état de la recherche, la dynamique concurrentielle et l’énorme défi du computing, alors que le groupe va dépenser 37 milliards de dollars rien qu’en 2024 pour augmenter ses capacités de calculs. Il estime que seules deux entreprises dans le monde peuvent concevoir des grands modèles « fondamentaux » : Google et Meta. Entretien.

Un an et demi après ChatGPT, où en est la recherche en intelligence artificielle ?

Pour commencer, je dois dire que ChatGPT ne nous a pas surpris. C’était un déploiement de technologie que l’on connaissait depuis plusieurs années. En revanche, son adoption par le public a étonné tout le monde, y compris OpenAI. Aujourd’hui, les systèmes saturent, on arrive à la limite. Entraîner des modèles avec toujours davantage de données n’est pas utile car les performances n’augmentent pas proportionnellement. Par ailleurs, les systèmes commettent toujours des hallucinations. Ils se contentent de générer les mots les plus probables. Ils n’ont ni mémoire, ne résonnent pas et ne planifient pas les tâches de façon hiérarchique.

Dans ce contexte, la priorité est de rendre les modèles plus fiables. Il faut aussi faire en sorte que les grands modèles de langages (LLM) puissent tourner sur des ordinateurs avec moins de mémoire. Aujourd’hui, chaque paramètre dans un LLM nécessite 2 octets de mémoire, donc pour un LLM de 7 milliards de paramètres, on arrive à 14 milliards d’octets ! C’est beaucoup trop pour que l’IA générative arrive dans les smartphones ou les lunettes connectées…

OpenAI, Google, Facebook… qui fait le plus de progrès en ce moment ?

Il faut distinguer la recherche fondamentale et l’opérationnalisation, c’est-à-dire le transfert de l’IA dans les entreprises. OpenAI est très fort dans ce domaine, car c’est leur seule source de revenus. Meta, en revanche, tire ses revenus de la publicité numérique. Cela nous donne des moyens pour faire davantage de recherche fondamentale. Nous nous apprêtons ainsi à lancer Llama 3, notre troisième modèle de langage.

Globalement, seules deux entreprises ont à la fois les talents et les ressources informatiques (computing) nécessaires pour mettre au point les grands modèles d’IA fondamentaux : Meta et Google. Mistral aussi a fait ce choix de développer des modèles fondamentaux, mais pour eux, c’est un vrai pari. Développer de tels modèles coûte très cher.

L’IA sera donc dominée par deux entreprises de la Silicon Valley ?

Non, pas du tout. Il n’y aura pas de victoire incontestée d’un tel sur un autre. C’est un jeu du chat et de la souris. L’IA aujourd’hui me fait penser aux débuts d’Internet aux Etats-Unis en 1994. A l’époque, il y avait aussi deux plateformes propriétaires : Sun Microsystems [un fabricant américain d’ordinateurs et de logiciels créé en 1982 et disparu en 2010, NLDR) et Microsoft. Or les deux ont perdu !

Meta connecte 3 milliards de personnes via ses réseaux sociaux. Or votre but est de mettre au point des machines aussi intelligentes que les humains. Dans quelle mesure l’IA change l’ADN et la mission de Meta ?

L’IA va au-delà du simple fait de connecter les gens, c’est vrai. Mais l’IA ne va pas faire disparaître le besoin de communiquer. En revanche, les plateformes via lesquelles nous communiquons vont probablement changer. Aujourd’hui, c’est le smartphone, mais demain ? La façon dont on cherche l’information est déjà bouleversée. On le voit avec la start-up Perplexity [qui a mis au point un moteur de recherche conversationnel]. Le succès non prévu de ChatGPT met tout le marché du search sous pression, Google en tête.

Meta est une « founder-company ». Que pense Mark Zuckerberg de l’IA ?

C’est à lui d’en parler ! En tout cas, l’IA est dans la tête de Mark Zuckerberg et des autres dirigeants de Meta depuis plus de 10 ans. FAIR, notre réseau de laboratoires de recherche en IA, a été créé en 2013. L’IA est une priorité stratégique depuis des années. C’est une technologie critique pour le futur, tout comme la réalité augmentée (AR) et la réalité virtuelle (VR) qui sont au coeur du métavers. De ce point de vue, rien n’a changé.

Vous allez malgré tout dépenser entre 30 et 37 milliards de dollars cette année pour augmenter vos capacités informatiques…

Oui, car nous n’avons jamais assez de capacités de calcul et de mémoire ! Mais la vraie question, c’est la distribution des ressources informatiques, entre les priorités de court, moyen et long terme…

L’utilisation de l’intelligence artificielle par les entreprises se développe. Quels domaines seront les plus touchés ?

Je ne pense pas que des secteurs en particulier seront plus touchés que d’autres. Certaines fonctions, en revanche, devraient être très affectées par l’IA et verront leur productivité s’améliorer considérablement. Un modèle qui planifie, capable d’effectuer des vérifications, d’optimiser un travail, répond directement aux besoins des entreprises. Ce type de recherche opérationnelle, utilisant des mathématiques appliquées, est d’ailleurs une grande force des Français. Si on va plus loin, bien sûr, l’imagerie médicale, les transports ou la manutention, la gestion des stocks verront leurs pratiques bouleversées. Aujourd’hui, les robots plus ou moins intelligents peuvent manipuler, mais surtout reconnaître les objets qu’ils manipulent.

Auparavant les domaines d’intelligence artificielle étaient complètement séparés les uns des autres. On faisait de la reconnaissance de la parole, de la compréhension de la langue naturelle, de la traduction, de la reconnaissance d’objets dans les images, etc. Maintenant ces techniques peuvent se regrouper, grâce au deep learning, c’est-à-dire qu’on utilise des réseaux de neurones profonds pour résoudre tous ces problèmes. Et de plus en plus, on n’utilise qu’un seul modèle de réseau de neurones profonds capable de s’entraîner sur du texte, de l’image, de la vidéo. Cela veut dire que l’on aura des systèmes intelligents généralistes et qu’il sera possible ensuite de développer des applications particulières.

Les Etats-Unis et l’Europe commencent à mettre en place des régulations pour encadrer l’IA. En tant que chercheur vous avez appelé à la plus grande prudence. Pourquoi ?

La situation est très floue en ce moment. Bien sûr, certaines régulations ont du sens. Mettre des limites particulièrement dans des domaines critiques, c’est une très bonne chose. Protéger la vie privée, mettre des bornes aux systèmes de reconnaissance du visage dans le domaine public a du sens. Par exemple en France elle a été autorisée durant les Jeux Olympiques uniquement. Par contre, je suis très inquiet sur tout ce qui peut limiter la recherche et le développement. Certaines clauses de l’executive order de la Maison Blanche et dans les textes européens fixent une limite de puissance d’entraînement des machines au-delà desquels vous devez obtenir une licence ou donner des détails sur ce que vous faites au gouvernement. Il y avait des velléités de faire un peu la même chose au Royaume-Uni, mais heureusement ils y ont renoncé.

Je pense que cette règle n’est pas une bonne chose. Il y a 25 ans, les Etats-Unis avaient mis en place en vain des réglementations sur les exportations de technologies pour les supercalculateurs. La même chose va se passer. La limite actuelle fixée de 10 puissance 25 est déjà de la routine pour nos machines. Cela va limiter ce qu’on peut faire en Europe. Il existe également toute une zone grise de la réglementation qui fait que c’est nettement plus compliqué de déployer un système d’IA en Europe qu’aux Etats-Unis. L’agent intelligent permettant de parler à travers mes lunettes Meta-RayBan n’est pas disponible en Europe alors que nous discutons toujours avec les autorités. Cela rend les choses plus compliquées. Certains pays comme les Emirats arabes unis et dans une certaine mesure le Japon tirent parti de cette situation et comptent simplifier leur législation pour attirer des entreprises. Tokyo a fait des choix en matière de régulation et est devenu le paradis du machine learning !

[ad_2]

Source link